Der Konflikt um die militärische Nutzung generativer KI in den USA erreicht eine neue Eskalationsstufe. Anthropic-CEO Dario Amodei wirft OpenAI irreführende Aussagen über die Bedingungen eines Vertrags mit dem US-Verteidigungsministerium vor. In einem internen Schreiben, über das The Information berichtet, bezeichnete Amodei die Darstellung des Konkurrenzunternehmens als „straight up lies“. Im Zentrum steht die Frage, wie weit KI-Unternehmen die Einsatzmöglichkeiten ihrer Modelle im militärischen Bereich beschränken können – und sollen.
Anthropic war zuvor aus Verhandlungen mit dem Pentagon ausgestiegen. Das Unternehmen hatte darauf bestanden, seine Technologie nicht für inländische Überwachung oder autonome Waffensysteme freizugeben. Eine pauschale Klausel, wonach der Einsatz für „any lawful use“ zulässig sein solle, lehnte Anthropic ab. Genau diese Formulierung akzeptierte OpenAI hingegen im Rahmen seines Vertrags.
Streit um die Auslegung von „lawful use“
OpenAI betont, man habe dennoch Schutzmechanismen verankert, um missbräuchliche Szenarien auszuschließen. In einem Blogpost erklärte das Unternehmen, dass inländische Massenüberwachung explizit nicht unter die vereinbarten Nutzungszwecke falle. Für Amodei greift diese Interpretation jedoch zu kurz: Das, was juristisch erlaubt ist, könne sich politisch ändern. Daher seien technische und inhaltliche Grenzen zwingend notwendig, nicht lediglich juristische Formulierungen.
Anthropic sieht sich seit seiner Gründung als besonders sicherheitsorientierter Akteur im KI-Markt. Die Absage an den Pentagon-Vertrag ist daher auch Teil einer strategischen Selbstpositionierung – ein Signal an Mitarbeitende und Investoren, dass das Unternehmen ethische Leitplanken nicht dem Marktvolumen unterordnet.
Gewinnen in der Plattform-Ökonomie
OpenAI zwischen Kommerzialisierung und Sicherheitsversprechen
OpenAI wiederum setzt zunehmend auf große institutionelle Kunden, darunter Regierungsbehörden. Der Deal mit dem Verteidigungsministerium markiert einen weiteren Schritt in Richtung staatlicher Aufträge. Parallel dazu betont das Unternehmen, hohe Sicherheitsstandards einzuhalten und eng mit Regulatoren zu kooperieren. Diese Doppelstrategie erhöht jedoch die Angriffsfläche für Kritiker, die OpenAI vorwerfen, wirtschaftliche Interessen über ethische Vorsicht zu stellen.
Auswirkungen auf Markt und Öffentlichkeit
Die öffentliche Reaktion zeigt, wie sensibel das Thema ist: Nach Bekanntwerden des DoD-Vertrags stiegen laut Berichten die Deinstallationen von ChatGPT – vor allem in den USA – kurzfristig um fast 300 Prozent. Ob es sich um eine nachhaltige Entwicklung handelt, bleibt abzuwarten. Der deutliche Ausschlag demonstriert jedoch, dass Entscheidungen im sicherheitspolitischen Umfeld unmittelbar auf Markenwahrnehmung und Nutzervertrauen durchschlagen können.
Altman rudert zurück
Der öffentliche Druck zeigte offenbar Wirkung. OpenAI-Chef Sam Altman räumte in einem internen Memo, das er anschließend auf der Plattform X veröffentlichte, ein, der Verteidigungsdeal wirke nach außen „opportunistisch und schlampig“. Man habe jedoch versucht, einen aus seiner Sicht noch problematischeren Vertragsabschluss zu verhindern.
Zugleich betonte Altman, für OpenAI gälten dieselben roten Linien wie für Anthropic – insbesondere beim Ausschluss von KI-Anwendungen für Massenüberwachung im Inland und für autonome Waffensysteme. Genau an diesen Punkten war zuvor der geplante Vertrag zwischen Anthropic und dem Pentagon gescheitert.
Signalwirkung für die gesamte KI-Branche
Der Streit zwischen Anthropic und OpenAI verdeutlicht ein Grundproblem der Branche: Wer definiert die ethischen Grenzen militärischer KI-Nutzung? Unternehmen, Regierungen oder supranationale Institutionen? Während geopolitische Spannungen den Druck zur technologischen Aufrüstung erhöhen, wächst zugleich der gesellschaftliche Widerstand gegen undurchsichtige KI-Anwendungen im Sicherheitsbereich. Der Wettbewerb der führenden Modelle verschiebt sich damit zunehmend von Leistungsparametern hin zu Fragen normativer Positionierung und strategischer Glaubwürdigkeit.


