OpenAI hat mit gpt-oss-120b und gpt-oss-20b zwei leistungsstarke Sprachmodelle mit offenen Gewichten veröffentlicht. Die Modelle sollen laut OpenAI neue Standards bei der Kombination von Effizienz, Skalierbarkeit und Sicherheit setzen – und dies bei vollständiger Anpassbarkeit für Entwickler. Beide Modelle stehen unter der Apache 2.0-Lizenz und wurden für unterschiedliche Anforderungen konzipiert: Während das größere gpt-oss-120b nahezu auf Augenhöhe mit dem OpenAI-Modell o4-mini operiert, kann das kleinere gpt-oss-20b sogar auf Geräten mit nur 16 GB RAM betrieben werden.
Optimiert für echte Anwendungsfälle
Die Modelle nutzen moderne Architekturkonzepte wie Mixture-of-Experts mit sparsamer Aktivierung – beim 120b-Modell sind pro Token nur 5,1 Milliarden der insgesamt 117 Milliarden Parameter aktiv. Für den Einsatz in Agenten-Workflows sind sie besonders geeignet: Sie unterstützen Funktionen wie Tool-Nutzung, Code-Ausführung und Websuche und lassen sich auf unterschiedliche Anforderungen in Bezug auf Rechenaufwand und Latenz feinjustieren.
Gewinnen in der Plattform-Ökonomie
Leistungsstark in Benchmarks
In verschiedenen Benchmarks wie Codeforces (Programmieren), AIME (Mathematik) und HealthBench (Gesundheit) konnten beide Modelle überzeugen. gpt-oss-120b übertraf sogar proprietäre Modelle wie GPT-4o bei komplexen Aufgaben im Gesundheitsbereich und in Mathematikwettbewerben. Auch das kleinere Modell 20b schlug sich im Vergleich zu o3-mini überdurchschnittlich gut.
Sicherheit im Fokus
Die Veröffentlichung offener Modelle birgt auch Risiken. OpenAI betont deshalb den Fokus auf Sicherheit: Neben Filterung sensibler Trainingsdaten kamen Methoden wie deliberative alignment und ein Prompt-Hierarchiemodell zum Einsatz. Zusätzlich wurde eine absichtlich gefährlich feinjustierte Version des Modells evaluiert, um Missbrauchspotenzial einzuschätzen – mit dem Ergebnis, dass auch nach gezieltem Feintuning keine Hochrisikofähigkeiten erreicht wurden.
Breite Einsatzmöglichkeiten
Die Modelle sind vorquantisiert (MXFP4) verfügbar und damit ressourcenschonend in der Nutzung. Sie können lokal, auf Edge-Geräten oder über zahlreiche Anbieter wie Hugging Face, Azure, AWS oder Cloudflare betrieben werden. Microsoft bringt zudem eine GPU-optimierte Version für Windows-Geräte auf den Markt. Für Entwickler stellt OpenAI Referenzimplementierungen und Tools für gängige Plattformen bereit.
OpenAI unterstreicht mit dem Release der gpt-oss-Modelle die Bedeutung eines gesunden Open-Source-Ökosystems für demokratischen Zugang zu KI. Ein Red-Teaming-Wettbewerb mit einem Preisfonds von 500.000 US-Dollar (ca. 460.000 Euro) soll helfen, weitere Sicherheitslücken zu identifizieren und das Vertrauen in offene KI weiter zu stärken.


