Ein US-Bundesrichter hat die Sanktionen der Regierung gegen das KI-Unternehmen Anthropic vorläufig ausgesetzt. Die Entscheidung markiert einen Wendepunkt im Machtkampf zwischen staatlichen Sicherheitsinteressen und unternehmerischer Ethik in der KI-Branche.

Die Richterin Rita Lin am Bundesbezirksgericht in San Francisco erließ am Donnerstag eine einstweilige Verfügung. Sie friert damit einen Präsidialerlass ein, der allen Bundesbehörden die Nutzung von Anthropics KI-Modell Claude verbot. Auch die Einstufung des Unternehmens als „Supply-Chain-Risiko“ durch das Verteidigungsministerium ist vorerst gestoppt. Diese Sicherheitsklassifizierung, normalerweise für Firmen mit ausländischen Risikoverbindungen reserviert, hätte Anthropic praktisch von allen Bundesaufträgen ausgeschlossen.

Anzeige

Während Regierungen weltweit über Sicherheitsvorgaben streiten, ist die EU-KI-Verordnung bereits seit August 2024 bittere Realität für hiesige Unternehmen. Dieser kostenlose Leitfaden erklärt kompakt, welche Dokumentationspflichten und Risikoklassen nun für Ihre KI-Systeme gelten. EU-KI-Verordnung kompakt: Jetzt Gratis-Leitfaden sichern

Gericht sieht politische Vergeltung statt Sicherheitsbedenken

In ihrer 43-seitigen Begründung äußerte Richterin Lin erhebliche Zweifel an der Rechtmäßigkeit der Regierungsmaßnahmen. Das Gericht sah keine Belege für echte technische Sicherheitsmängel oder ausländische Einflussnahme. Stattdessen deutet vieles darauf hin, dass Anthropic für seine öffentliche Kritik an Regierungspositionen bestraft werden sollte.

Die Richterin wertete den Versuch, ein inländisches Unternehmen als potenzielle Sabotagegefahr zu brandmarken, als Überschreitung der behördlichen Befugnisse. Die bestehenden Gesetze zu Lieferkettenrisiken seien nicht als Druckmittel in Vertragsstreits über politische Meinungsverschiedenheiten gedacht. Die siebentägige Aussetzung der Sanktionen gibt der Regierung Zeit für einen Eilantrag, verhindert aber nach Ansicht des Gerichts irreparablen Schaden für Anthropics Geschäfte und Ruf.

Rechtsexperten sehen in der Entscheidung einen starken Bezug zum Ersten Verfassungszusatz, der Meinungsfreiheit garantiert. Anthropics Weigerung, seine Sicherheitsprotokolle zu ändern, könnte als geschützte Äußerung gelten. Die breiten Strafmaßnahmen der Exekutive drohten das Unternehmen zu zerstören, weshalb die einstweilige Verfügung nötig sei, bis zur Hauptverhandlung.

Konfliktursache: Ethische KI-Grenzen gegen militrische Nutzung

Der Konflikt eskalierte im Februar 2026, nachdem Verhandlungen mit dem Pentagon über den Einsatz von Claude in klassifizierten Netzwerken scheiterten. Anthropic-CEO Dario Amodei bestand auf strikten Sicherheitsvorkehrungen. Diese sollten verhindern, dass die Technologie für Massenüberwachung im Inland oder den Betrieb vollständig autonomer Waffensysteme genutzt wird. Das Unternehmen folgt einer Philosophie des „Constitutional AI“, die Sicherheit und menschliche Werte in den Vordergrund stellt.

Verteidigungsminister Pete Hegseth lehnte diese Beschränkungen ab. Sein Argument: Die Streitkräfte müssten die Autorität behalten, erworbene Technologie für jede gesetzlich zulässige und sicherheitsrelevante Aufgabe einzusetzen. Ein privater Anbieter dürfe nicht die Einsatzparameter von Militärwerkzeugen diktieren. Nachdem Anthropic seine Bedenken öffentlich machte, kündigte die Regierung bestehende Verträge und verhängte die Risikoeinstufung.

Richterin Lin wertete öffentliche Kritik von Minister Hegseth an Anthropic als weiteres Indiz für Vergeltungsabsichten. Bei reinen Bedenken zur Kommandointegrität hätte die Regierung die Software über normale Beschaffungswege abbestellen können, anstatt eine umfassende Sicherheitsblacklist zu verhängen.

Milliardenverluste und Branchen-Schockwellen

Die finanziellen Folgen der Sanktionen sind massiv. Laut Gerichtsunterlagen gefährdete die Risikoeinstufung Milliardensummen an prognostizierten Umsätzen für 2026. Anthropic meldete sofortige Verluste von rund 150 Millionen US-Dollar an jährlichen wiederkehrenden Einnahmen. Hinzu kamen hunderte Millionen Dollar an geplatzten Vertragsverhandlungen im Finanz- und Unternehmenssektor.

Das „Supply-Chain-Risiko“-Label wirkte weit über Staatsaufträge hinaus. Da es alle Rüstungsunternehmer zum Verzicht auf Anthropic-Technologie verpflichtete, distanzierten sich viele Privatkunden. Über 100 große Firmenkunden äußerten laut Anthropic ernste Zweifel an der weiteren Zusammenarbeit aufgrund des staatlichen Stigmas.

Anzeige

Der Fall Anthropic zeigt, wie schnell Sicherheitsbedenken und neue Gesetze den Geschäftsbetrieb gefährden können – ein Risiko, das auch durch mangelnde Cyber-Security droht. Erfahren Sie in diesem Experten-Report, wie Sie Ihr Unternehmen ohne Budget-Explosion gegen aktuelle Bedrohungen absichern. Effektive Cyber-Security-Strategien kostenlos herunterladen

Die Tech-Branche verfolgt den Fall aufmerksam. Mehrere große Verbände reichten Unterstützungsschriften für Anthropic ein. Sie warnen: Wenn Sicherheitseinstufungen zur Bestrafung ethischer Unternehmenspolitik genutzt werden dürfen, erstickt das Innovation und entmutigt die Entwicklung robuster KI-Sicherheitsvorkehrungen. Verteidigungsexperten hingegen sorgen sich, dass die Regierung ihre Fähigkeit verliert, kritische Technologie unter souveräner Kontrolle zu halten.

Ausblick: Kurzer Aufschub vor langem Rechtsstreit

Die einstweilige Verfügung ist ein Sieg für Anthropic, doch der Rechtskampf geht weiter. Das Justizministerium wird vor dem Bundesberufungsgericht in Washington, D.C., auf Aufhebung drängen. Die Regierung wird voraussichtlich argumentieren, dass die Exekutive bei nationaler Sicherheit und Beschaffung, besonders in der Verteidigungslieferkette, weitgehende, nicht überprüfbare Befugnisse habe.

Anthropic betont, die Klage sei zum Überleben nötig gewesen, man suche aber weiter einen produktiven Weg mit Bundesbehörden. Das Unternehmen will sichere und verlässliche KI für die amerikanische Öffentlichkeit entwickeln – und gleichzeitig sein Recht auf ethische Grenzen verteidigen.

Der Fall wird ein wichtiges Präzedenzurteil für den Umgang der US-Regierung mit der aufstrebenden KI-Branche setzen. Je mehr Künstliche Intelligenz in nationale Infrastruktur und Verteidigung integriert wird, desto schärfer werden die Spannungen zwischen unternehmerischen Sicherheitsvorgaben und Staatsinteressen. Das endgültige Urteil wird definieren, inwiefern die Regierung ihre immense Beschaffungsmacht nutzen kann, um die Unternehmenspolitik der Entwickler fortschrittlichster KI-Tools zu gestalten. Vorerst kann Anthropic ohne unmittelbare Gefährdung weiterarbeiten. Die langfristige Beziehung zur US-Regierung bleibt jedoch ungewiss.