Der KI-Entwickler Anthropic hat Klage gegen das US-Verteidigungsministerium eingereicht, nachdem das Pentagon das Unternehmen als „Supply-Chain Risk“ eingestuft hatte. Die Maßnahme schließt den Anbieter faktisch von Regierungsaufträgen aus und verschärft die Debatte über den militärischen Einsatz generativer KI. Die Klagen wurden laut Techcrunch in Kalifornien und Washington, D.C., eingereicht und könnten zu einem Grundsatzfall über staatliche Befugnisse in der Technologiebranche werden.
Einstufung als Lieferkettenrisiko – drastisch und folgenreich
Die Einstufung wird in den USA üblicherweise gegenüber Unternehmen verhängt, die als sicherheitspolitisch bedenklich gelten. Für Anthropic bedeutet sie, dass Behörden und Unternehmen mit Pentagon-Bezug zertifizieren müssen, keine Claude-Modelle einzusetzen. Das Unternehmen spricht von einer „rechtswidrigen“ Entscheidung und wirft der Regierung vor, politische Positionen wirtschaftlich zu sanktionieren. Gemeint sind die öffentlich formulierten Leitlinien des Unternehmens, dass seine KI-Systeme nicht für Massenüberwachung oder autonome Waffensysteme genutzt werden sollten.
Gewinnen in der Plattform-Ökonomie
Grundsatzkonflikt über militärische KI-Nutzung
Der Streit macht einen fundamentalen Zielkonflikt sichtbar. Verteidigungsminister Pete Hegseth fordert, das Pentagon müsse KI „für jeden rechtmäßigen Zweck“ einsetzen können. Die nationale Sicherheit dürfe nicht durch ethische Vorgaben privater Anbieter eingeschränkt werden. Anthropic hingegen verweist auf technologische Grenzen und ungelöste Sicherheitsprobleme autonomer Systeme. CEO Dario Amodei bekräftigte öffentlich, dass das Unternehmen seine roten Linien nicht aufgeben werde. Die Auseinandersetzung eskalierte weiter, als Donald Trump die Nutzung von Anthropic-Technologie für alle Bundesbehörden untersagte. Die General Services Administration kündigte daraufhin den „OneGov“-Vertrag – ein bedeutendes Beschaffungsinstrument für die gesamte US-Regierung.
Verfassungsrechtliche Dimension
In der Klage führt Anthropic an, dass die Einstufung ohne ordnungsgemäßes Prüfverfahren erfolgte. Weder Risikobewertungen noch Kongressunterrichtungen seien erfolgt. Zudem sieht sich das Unternehmen in seinen Rechten auf freie Meinungsäußerung verletzt. Der Staat dürfe politische Positionen zwar kritisieren, sie jedoch nicht als Grundlage wirtschaftlicher Sanktionen nutzen. Damit wird der Fall zu einem Streit über Gewaltenteilung, Vertragsfreiheit und die Rolle privater Technologieanbieter in sensiblen Sicherheitsbereichen.
Folgen für den Markt der Enterprise-KI
Für Anthropic steht viel auf dem Spiel: Der Ausschluss aus Regierungsprojekten könnte Umsatz und strategische Position gegenüber Wettbewerbern schwächen – zumal sich OpenAI einen Deal mit dem Pentagon gesichert hat. Zugleich sendet der Fall ein deutliches Signal an die Branche: Unternehmen, die ethische Leitplanken für sicherheitsrelevante KI-Anwendungen formulieren, laufen Gefahr, politisch unter Druck zu geraten. Für Investoren entsteht damit ein neues regulatorisches Risiko in einem Markt, in dem staatliche Nachfrage eine zentrale Rolle spielt.
Ein Präzedenzfall für die KI-Ära
Der Konflikt zeigt die wachsende Spannung zwischen technologischem Fortschritt und staatlicher Souveränität. Während Regierungen KI als strategische Schlüsseltechnologie betrachten, pochen Unternehmen auf Selbstregulierung und Sicherheitsstandards. Das Urteil in diesem Fall dürfte den künftigen Umgang mit militärischer KI prägen – und bestimmen, ob Unternehmen ihre eigenen Nutzungsgrenzen durchsetzen dürfen oder staatliche Interessen überwiegen.


