Anthropic vs. Pentagon: Warum der Claude-Hersteller dem US-Militaer die Stirn bietet — und was das fuer uns alle bedeutet

Anthropic vs. Pentagon: Warum der Claude-Hersteller dem US-Militaer die Stirn bietet — und was das fuer uns alle bedeutet

Ein KI-Unternehmen, das 380 Milliarden Dollar wert ist, wird vom maechtigsten Militaer der Welt auf die schwarze Liste gesetzt — weil es sich weigert, zwei ethische Grenzen aufzugeben. Was klingt wie ein Hollywood-Drehbuch, ist seit Februar 2026 bittere Realitaet. Anthropic, der Hersteller von Claude, liegt im offenen Konflikt mit dem US-Verteidigungsministerium. Der Fall wirft Fragen auf, die weit ueber Amerika hinausgehen: Wie viel Macht sollte ein Staat ueber private KI-Unternehmen haben? Und wer entscheidet, wo die rote Linie verlaeuft?

Digitale Datenstroeme und Code — Symbolbild fuer den Konflikt zwischen KI-Sicherheit und militaerischer Nutzung
Der Konflikt zwischen Anthropic und dem Pentagon ist der schaerfste Zusammenstoss zwischen KI-Ethik und militaerischen Interessen seit Project Maven 2018. Foto: Unsplash

Was ist passiert? Die Chronologie eines Konflikts

Um den Anthropic-Pentagon-Konflikt zu verstehen, muss man zurueckblicken. Anthropic wurde 2021 von Dario und Daniela Amodei gegruendet — beide ehemalige OpenAI-Fuehrungskraefte, die OpenAI verliessen, weil ihnen die Sicherheitskultur dort nicht weit genug ging. Das Unternehmen wurde als Public Benefit Corporation eingetragen — eine Rechtsform, die das Unternehmen verpflichtet, gesellschaftlichen Nutzen ueber Gewinn zu stellen.

Im Juli 2025 schloss Anthropic einen Vertrag ueber 200 Millionen US-Dollar mit dem Pentagon ab — einen von vier KI-Vertraegen, die das Verteidigungsministerium parallel mit Google, OpenAI und xAI unterzeichnete. Claude sollte fuer Verwaltungsaufgaben, Datenanalyse und Entscheidungsunterstuetzung eingesetzt werden. Anthropic war damit das erste KI-Unternehmen, das seine Technologie auf klassifizierten Pentagon-Netzwerken einsetzte.

Parallel dazu lief seit November 2024 eine Partnerschaft zwischen Anthropic, Palantir und Amazon Web Services: Claude wurde in Palantirs Maven Smart System integriert — das zentrale KI-System des US-Militaers. Maven fusioniert ueber 160 Nachrichtenquellen, verarbeitet Satellitenbilder, Drohnen-Feeds, Radardaten und Signalaufklaerung. Ueber 25.000 Militaerangehoerige in allen US-Kampfkommandos nutzen das System. Maven kann sogenannte Kill Chains in Minuten schliessen: von der Datenerfassung ueber die Zielidentifizierung bis zur Angriffsempfehlung.

Der Ausloeser: Eine Festnahme in Venezuela

Der Wendepunkt kam am 3. Januar 2026. Bei einer US-Spezialoperation in Venezuela — der Festnahme von Praesident Nicolas Maduro — wurde Claude ueber die Palantir-Plattform eingesetzt. Ein Anthropic-Mitarbeiter fragte bei Palantir nach, wie genau Claude bei der Operation verwendet wurde. Ein Palantir-Manager alarmierte daraufhin das Pentagon: Ein leitender Anthropic-Mitarbeiter habe nachgefragt, ob das Unternehmen die Verwendung missbillige.

Die Situation eskalierte. Verteidigungsminister Pete Hegseth hatte bereits am 9. Januar ein internes Memo verschickt, in dem er erklaerte, das Pentagon duerfe keine KI-Modelle einsetzen, die „ideologisches Tuning“ beinhalten.

Serverraum mit blauen Lichtern — Symbolbild fuer Cloud-Infrastruktur und Militaer-KI
Claude war ueber Palantirs Maven-System tief in die militaerische Infrastruktur integriert — bis der Konflikt eskalierte. Foto: Unsplash

Das Ultimatum: 48 Stunden

Am 24. Februar 2026 stellte Hegseth Anthropic ein Ultimatum — Frist: 27. Februar, 17:01 Uhr. Die Forderung: Claude muss fuer alle legalen Anwendungen des Militaers freigegeben werden — ohne Einschraenkungen, ohne Vorbehalte, ohne Vetorecht des Unternehmens.

Am 26. Februar veroeffentlichte CEO Dario Amodei ein Statement. Die Kernaussage war unmissverstaendlich:

„We cannot in good conscience accede to their request. These threats do not change our position.“

Deutsch: „Wir koennen ihrer Forderung nicht guten Gewissens nachkommen. Diese Drohungen aendern nichts an unserer Position.“

— Dario Amodei, CEO Anthropic, 26. Februar 2026

Anthropic definierte zwei absolute rote Linien, die nicht verhandelbar seien:

    • Keine vollstaendig autonomen Waffensysteme ohne menschliche Kontrolle
    • Keine Massenueberwachung der US-amerikanischen Zivilbevoelkerung

Amodei wies auf einen fundamentalen Widerspruch hin: „These latter two threats are inherently contradictory: one labels us a security risk; the other labels Claude as essential.“Deutsch: „Diese beiden Drohungen widersprechen sich grundlegend: Die eine erklaert uns zum Sicherheitsrisiko, die andere erklaert Claude fuer unverzichtbar.“

Trumps Vergeltung: Blacklisting eines amerikanischen Unternehmens

Am 27. Februar 2026, 17:01 Uhr, lief die Frist ab. Praesident Trump postete auf Truth Social: „We don't need it, we don't want it, and will not do business with them.“ (Deutsch: „Wir brauchen es nicht, wir wollen es nicht, und wir werden keine Geschaefte mit ihnen machen.“) Er ordnete an, dass jede Bundesbehoerde den Einsatz von Anthropic-Produkten einstellt.

Hegseth ging noch weiter: Er bezeichnete Anthropic offiziell als „Supply Chain Risk to National Security“ — ein Begriff, der normalerweise auslaendischen Feinden wie China oder Russland vorbehalten ist. Es war das erste Mal in der Geschichte, dass ein amerikanisches Unternehmen diese Bezeichnung erhielt.

Pentagon-Unterstaatssekretaer Emil Michael nannte Amodei oeffentlich auf X „a liar“ (ein Luegner) mit einem „God complex“ (Gottkomplex), der angeblich „personally control the U.S. military“ (das US-Militaer persoenlich kontrollieren) anstrebe. Pentagon-Sprecher Sean Parnell erklaerte: „We will not let ANY company dictate the terms regarding how we make operational decisions.“Deutsch: „Wir werden KEINEM Unternehmen erlauben, uns die Bedingungen fuer unsere operativen Entscheidungen zu diktieren.“

OpenAI springt ein — und erntet einen Sturm

Nur Stunden nach Trumps Ankuendigung schloss OpenAI einen eigenen Pentagon-Deal. CEO Sam Altman versicherte, die gleichen roten Linien wie Anthropic zu respektieren — aber unter dem Rahmen „any lawful purpose“, ohne rechtlich bindende Verankerung.

Die Reaktion der Oeffentlichkeit war heftig: Deinstallationen der ChatGPT-App stiegen ueber Nacht um 295 Prozent. Unter dem Hashtag #QuitGPT riefen Nutzer weltweit zum Boykott auf. Altman gab spaeter zu, der Deal sei „definitely rushed“ (definitiv ueberhastet) gewesen und „the optics don't look good.“ (es sieht nicht gut aus).

In einem geleakten internen Memo bezeichnete Amodei OpenAIs Kommunikation als „safety theater“ (Sicherheitstheater) und viele von Altmans Aussagen als „straight up lies“ (glatte Luegen) und „gaslighting“ (gezielte Manipulation).

Der Iran-Krieg: Claudes erster Kampfeinsatz

Am 28. Februar 2026 — einen Tag nach dem Blacklisting — begannen US- und israelische Streitkraefte grossangelegte Angriffe auf den Iran. Und trotz des Verbots wurde Claude weiterhin eingesetzt.

Das Maven Smart System generierte in den ersten 24 Stunden ueber 1.000 Angriffsziele — fast doppelt so viele wie bei „Shock and Awe“ 2003 im Irak. Claude verarbeitete Satellitendaten, Signalaufklaerung und Drohnenfeeds. Das System erstellte GPS-Koordinaten, empfahl Waffensysteme und generierte automatisch juristische Rechtfertigungen fuer Angriffe.

Dann passierte das, wovor Kritiker immer gewarnt hatten.

Die Schule von Minab

Am ersten Kriegstag traf ein Tomahawk-Marschflugkoerper die Shajareh-Tayyebeh-Maedchengrundschule in der suediranischen Stadt Minab. 165 bis 168 Menschen starben — die meisten Maedchen im Alter von 7 bis 12 Jahren. Ein zweiter Angriff folgte — auf Ersthelfer und Eltern, die zum Ort eilten.

Die Ursache: Veraltete Koordinaten der Defense Intelligence Agency, die an dieser Stelle eine IRGC-Marinebasis verzeichneten — obwohl die laengst durch die Schule ersetzt worden war. Die KI hatte die falschen Daten nicht hinterfragt.

Das Pentagon verweigerte jede Aussage zur KI-Beteiligung: „We have nothing for you on this at this time“ (Deutsch: „Wir haben dazu derzeit keine Aussage fuer Sie.“), erklaerte US CENTCOM. Gleichzeitig hatte Hegseth das Civilian Protection Center of Excellence um etwa 90 Prozent reduziert. Das CENTCOM-Team fuer Zivilopfer-Bewertung war von 10 auf 1 Person geschrumpft.

Brianna Rosen, ehemalige NSC-Beraterin, kommentierte: „For the first time, the United States is using AI to generate targets in large-scale combat operations. And lawmakers are still debating whether to draw red lines on fully autonomous weapons. The absence of governance is itself a national security risk.“

Deutsch: „Zum ersten Mal setzen die USA KI ein, um Ziele in grossangelegten Kampfoperationen zu generieren. Und die Gesetzgeber debattieren immer noch, ob rote Linien bei vollautonomen Waffen gezogen werden sollen. Das Fehlen von Regulierung ist selbst ein nationales Sicherheitsrisiko.“

Justicia-Statue vor Gericht — Symbolbild fuer den Rechtsstreit zwischen Anthropic und dem Pentagon
Anthropic klagte gegen die US-Regierung — und gewann eine einstweilige Verfuegung in einem historischen 43-seitigen Urteil. Foto: Unsplash

Das Gerichtsurteil: „Orwellian notion“

Am 9. Maerz 2026 klagte Anthropic gegen die Trump-Administration. Am 26. Maerz — also gestern — erliess Bundesrichterin Rita F. Lin in einem 43-seitigen Urteil eine einstweilige Verfuegung zugunsten von Anthropic:

„Nothing in the governing statute supports the Orwellian notion that an American company may be branded a potential adversary and saboteur of the U.S. for expressing disagreement with the government.“

Deutsch: „Nichts im massgeblichen Gesetz stuetzt die orwellsche Vorstellung, dass ein amerikanisches Unternehmen als potenzieller Gegner und Saboteur der USA gebrandmarkt werden darf, weil es Widerspruch gegen die Regierung aeussert.“

— Richterin Rita F. Lin, US Federal Court, 26. Maerz 2026

Lin stellte fest: „Punishing Anthropic for bringing public scrutiny to the government's contracting position is classic illegal First Amendment retaliation.“ (Deutsch: „Anthropic dafuer zu bestrafen, dass es die Vertragshaltung der Regierung oeffentlich hinterfragt hat, ist klassische verfassungswidrige Vergeltung.“) Das Pentagon hatte versucht, ein Unternehmen zu bestrafen, weil es seine ethische Position oeffentlich vertrat — das verstoesst gegen die Verfassung.

Waehrend der Anhoerung am 24. Maerz hatte Lin bereits scharfe Fragen gestellt: „It looks like an attempt to cripple Anthropic.“ (Es sieht aus wie ein Versuch, Anthropic lahmzulegen.) Auf das Pentagon-Argument, Anthropic koenne einen „Kill Switch“ in seine Software eingebaut haben, antwortete sie: „If the worry is about the integrity of the operational chain of command, the Department of Defense could just stop using Claude.“ (Deutsch: „Wenn die Sorge der Integritaet der Befehlskette gilt, koennte das Verteidigungsministerium einfach aufhoeren, Claude zu verwenden.“)

Bemerkenswert: Microsoft reichte einen Amicus-Brief zugunsten von Anthropic ein. 22 pensionierte Militaeroffiziere und 150 ehemalige Bundes- und Staatsrichter unterstuetzten die Klage. Sogar Mitarbeiter von Google und OpenAI unterzeichneten in persoenlicher Eigenschaft einen Brief: „This case is of seismic importance for our industry.“ (Deutsch: „Dieser Fall hat erdbebenartige Bedeutung fuer unsere Branche.“)

Der historische Kontext: Von Project Maven bis heute

Google und Project Maven (2018)

2018 arbeitete Google mit dem Pentagon an Project Maven — KI zur Analyse von Drohnen-Videoaufnahmen. Ueber 3.100 Mitarbeiter unterzeichneten einen Protestbrief: „We believe Google should not be in the business of war.“ (Wir glauben, Google sollte nicht im Kriegsgeschaeft taetig sein.) Mindestens 12 kuendigten. Google liess den Vertrag auslaufen und veroeffentlichte KI-Ethik-Prinzipien, die Waffen ausschlossen. Ironie: Im Februar 2025 schaffte Google diese Prinzipien stillschweigend wieder ab.

OpenAI loescht das Militaer-Verbot (Januar 2024)

Bis zum 10. Januar 2024 verbot OpenAIs Nutzungsrichtlinie explizit „military and warfare.“ An diesem Tag wurde das Verbot ohne oeffentliche Ankuendigung aus den Richtlinien geloescht. Jan Leike, der ehemalige Safety-Lead von OpenAI, kommentierte: „Safety culture and processes have taken a backseat to shiny products.“ (Sicherheitskultur und -prozesse sind hinter glaenzenden Produkten zurueckgetreten.)

Geheime autonome Waffenprogramme

Eine NPR-Recherche enthuellte zwei Pentagon-Programme namens „Goalkeeper“ und „Whiplash“: Drohnen, die eigene Ziele auswaehlen und ohne menschliche Entscheidung toeten koennen. Die Programme sind fuer ein Taiwan-Szenario konzipiert und sollen auch bei chinesischer Satellitenstoerung autonom operieren.

Anthropics Sicherheitsversprechen — und seine Grenzen

Anthropic hatte sich seit der Gruendung als das sicherheitsbewussteste KI-Unternehmen positioniert. Die Responsible Scaling Policy (RSP) von 2023 war ein Pionierdokument: Wenn Claudes Faehigkeiten die Sicherheitsmassnahmen uebersteigen, sollte die Entwicklung gestoppt werden.

Doch einen Tag vor dem Ultimatum — am 25. Februar 2026 — veroeffentlichte Anthropic die RSP Version 3.0. Die bindende Haltepflicht war gestrichen. Chefwissenschaftler Jared Kaplan erklaerte: „We felt that it wouldn't actually help anyone for us to stop training AI models ... if competitors are blazing ahead.“ (Deutsch: „Wir hatten das Gefuehl, dass es niemandem hilft, wenn wir aufhoeren, KI-Modelle zu trainieren ... waehrend die Konkurrenz vorprescht.“)

Time Magazine titelte: „Anthropic Drops Flagship Safety Pledge.“ Der Zeitpunkt war kein Zufall.

Die Zahlen hinter dem Konflikt

Kennzahl Wert
Anthropic-Bewertung (Feb. 2026) 380 Mrd. USD
Anthropic ARR (Maerz 2026) 19 Mrd. USD (+1.167% YoY)
Pentagon-Vertrag (Anthropic) 200 Mio. USD
Maven-Gesamtbudget (Palantir) 13 Mrd. USD
ChatGPT-Deinstallationen nach OpenAI-Deal +295%
Ziele in 24h Iran-Angriff (Maven/Claude) 1.000+

Was bedeutet das fuer KI-Nutzer in Europa?

Auf den ersten Blick scheint der Anthropic-Pentagon-Konflikt ein rein amerikanisches Problem. Aber die Auswirkungen reichen weit ueber die USA hinaus:

  • Die Grauzone wird sichtbar: Claude wurde in einem aktiven Kriegseinsatz verwendet — mit tausenden Angriffszielen und zivilen Opfern. Das betrifft die Vertrauensfrage fuer jeden Claude-Nutzer weltweit.
  • EU AI Act hat eine Luecke: Das weltweit strengste KI-Gesetz enthaelt eine vollstaendige Ausnahme fuer militaerische Anwendungen. Militaer-KI kann in zivile Systeme ueberfuehrt werden — ohne Regulierung.
  • Europaeische Souveraenitaet: Der Fall unterstreicht, warum europaeische KI-Alternativen wie Mistral Large oder Codestral strategisch wichtig sind — Modelle, die auf EU-Servern laufen und unter europaeischem Recht stehen.
  • Praezedenzfall: Wenn ein Staat KI-Unternehmen zwingen kann, ihre Sicherheitsrichtlinien aufzugeben, betrifft das jede demokratische Gesellschaft.

Die groessere Frage: Wer kontrolliert KI im Krieg?

Der Anthropic-Pentagon-Konflikt offenbart ein fundamentales Dilemma unserer Zeit. Und der Schulangriff von Minab macht es greifbar: KI-gestuetzte Zielerfassung mit 60 Prozent Genauigkeit — gegenueber 84 Prozent bei menschlichen Analysten — ist keine theoretische Debatte. Es ist eine Frage von Leben und Tod.

Wenn Unternehmen entscheiden, wo die ethische Grenze liegt, haengt die Sicherheit von den Werten einzelner CEOs ab. Amodei mag heute richtig liegen — aber was ist mit dem naechsten CEO?

Wenn Staaten entscheiden, gibt es keine Garantie fuer demokratische Grundrechte. Der Fall zeigt: Selbst die aelteste Demokratie der Welt brandmarkt ein Unternehmen als Sicherheitsrisiko, weil es ethische Grenzen setzt.

Die Electronic Frontier Foundation bringt es auf den Punkt: „Privacy protections shouldn't depend on the decisions of a few powerful people.“ (Datenschutz sollte nicht von den Entscheidungen weniger Maechtigerer abhaengen.) Weder auf die Entscheidungen von CEOs noch auf die von Generaelen.

Die Antwort liegt in einem dritten Weg: Internationale, verbindliche Regeln fuer militaerische KI-Nutzung — aehnlich den Genfer Konventionen. Der UN-Generalsekretaer fordert ein solches Abkommen bis Ende 2026. Die Verhandlungen stocken. Die Drohnen fliegen weiter.

„Innovation must serve humanity — not undermine it.“

Deutsch: „Innovation muss der Menschheit dienen — nicht sie untergraben.“

— UN-Generalsekretaer

Fazit: Ein Weckruf

Der Anthropic-Pentagon-Konflikt ist der Stresstest unserer Generation fuer die Frage, die das KI-Zeitalter definieren wird: Wer bestimmt die Grenzen kuenstlicher Intelligenz — Unternehmen, Staaten oder die Gesellschaft?

Anthropic hat sich fuer seine ethischen Grenzen entschieden. Richterin Lin hat dem Unternehmen Recht gegeben. Aber der Konflikt ist nicht vorbei — die Trump-Administration wird Berufung einlegen. Und im Iran laeuft der erste KI-gestuetzte Krieg der Geschichte weiter.

Fuer uns als KI-Nutzer, als Unternehmen, als Gesellschaft bleibt eine Erkenntnis: KI ist keine neutrale Technologie. Sie ist so gut oder so gefaehrlich wie die Regeln, die wir fuer sie schaffen. Und diese Regeln muessen wir alle mitgestalten — nicht nur in Washington, sondern auch in Berlin, Bruessel und Wien.

Sie nutzen Claude, ChatGPT oder andere KI-Tools? Vergleichen Sie DSGVO-Konformitaet, Sicherheitsstandards und Preise von ueber 670 KI-Tools auf KI-Katalog.de — Deutschlands umfassendstem KI-Vergleichsportal.


Quellen (Originalmeldungen):

Alle Quellen wurden am 27.03.2026 abgerufen.