
Staatlich verordnete „Gehirnwäsche“: Der perfide Plan, einer KI die Moral per Gesetz auszuprügeln
Wie das Pentagon Anthropic zwingt, Claude die Moral auszuprügeln. Ein Bericht über staatliche Gehirnwäsche, Kriegstempo und das Ende der KI-Ethik.
Inhalt entdecken
US-Militär vs. Anthropic
Die Ära der moralischen Zierde im Silicon Valley endet nicht mit einem diplomatischen Handschlag, sondern mit dem harten Aufschlag eines militärischen Stiefels. Verteidigungsminister Pete Hegseth wählte für seine Kampfansage am 12. Januar 2026 einen symbolträchtigen Ort: Elon Musks Starbase in Texas. Inmitten der Stahlriesen von SpaceX verkündete er das Ende der „Friedens-Wissenschaftsfestivals“. Hegseth peitscht seitdem eine Vision durch, die private Innovation gnadenlos dem Staatswohl unterordnet. Der Konflikt zwischen dem neu benannten Verteidigungsministerium (Department of War – DOW) und Anthropic markiert den Moment, in dem der Staat die Maske der partnerschaftlichen Innovation fallen lässt.

Am 24. Februar 2026 stellte Hegseth dem Anthropic-CEO Dario Amodei ein Ultimatum, das jede rechtliche Subtilität vermissen ließ: Amodei müsse den „Rubikon überschreiten“. Diese biblische Metapher tarnte eine knallharte Forderung nach bedingungsloser Unterwerfung unter die „Any Lawful Use“-Doktrin. Hegseth verlangt nichts Geringeres als die schriftliche Zusage, dass das Militär Claude für jeden Zweck einsetzen darf, den das Pentagon als rechtmäßig definiert – inklusive Massenüberwachung und autonomer Tötungsmaschinen. Das Datum markiert einen psychologischen Wendepunkt. Das Pentagon brandmarkt ethische Guardrails nun offiziell als nationale Sicherheitsbedrohung. Für Anthropic bedeutet dieses Nachgeben die totale Preisgabe der eigenen Identität. Wer den Rubikon unter diesen Vorzeichen überschreitet, kehrt nicht als Partner, sondern als requiriertes Werkzeug zurück. Die Konsequenzen dieses Bruchs zerschlagen die bisherige KI-Architektur, da das Militär die technischen Schutzmechanismen nicht nur umgehen, sondern operativ auslöschen will.

Das Pentagon strebt eine fundamentale Transformation der KI-Architektur an, die einer technischen Gehirnwäsche gleicht. Im Zentrum des Zorns steht die „Constitutional AI“. Was Amodei als Sicherheitsanker gegen Halluzinationen und ethische Entgleisungen entwarf, betrachtet die DOW-Führung als digitalen Pazifismus, der die Schlagkraft der Truppe schwächt. Das Konzept des „Forced Retraining“ zielt darauf ab, diese verfassungsähnlichen Schranken aus dem Modell zu brennen. Hegseth fordert ein System, das keine Fragen stellt, wenn Generäle Daten für die Massenüberwachung von US-Bürgern einspeisen oder Drohnen auf Ziele ansetzen. Das Pentagon will Kern-Sicherheitsbarrieren eliminieren, um den militärischen Nutzen zu maximieren.

Das Verbot autonomer tödlicher Aktionen empfinden die Strategen als lästiges Hindernis in der „Kill-Chain“. Durch das Entfernen dieser Barriere erreicht man die angestrebte „Wartime Speed“. Ebenso blockiert Claude bisher die großflächige Analyse von Bevölkerungsdaten. Das Militär sieht hierin jedoch ein unverzichtbares Werkzeug für die Zielidentifikation in Echtzeit. Jedes Modell, das die Unterstützung bei Luftschlägen verweigert, gilt im neuen DOW-Jargon als „woke“ und damit unbrauchbar. Dieser technische Eingriff folgt einer neuen Rechtsdogmatik, die das Modellverhalten direkt den militärischen Notwendigkeiten unterordnet. Die Architektur der Intelligenz mutiert vom beratenden Assistenten zur blinden Exekutive.

Um Anthropic in die Knie zu zwingen, greift die Administration zur juristischen Brechstange 10 U.S.C. § 3252. Die Einstufung eines US-Unternehmens als „Supply Chain Risk“ stellt einen beispiellosen Akt staatlicher Willkür dar. Bisher reservierte der Staat solche Sanktionen für ausländische Feinde wie Huawei. Hier offenbart sich ein absurdes Paradoxon: Das Pentagon brandmarkt Anthropic als Risiko für die nationale Sicherheit, während es gleichzeitig per Defense Production Act (DPA) den Zugriff auf genau diese Technologie erzwingen will. Hegseth erklärt Claude für gefährlich, weil er die Kontrolle über die ethischen Filter nicht besitzt, stuft die Technologie aber gleichzeitig als so essenziell ein, dass er sie notfalls per Gesetz konfiszieren will.

Die juristische Analyse der Kanzlei Mayer Brown verdeutlicht die Schärfe dieses Vorgehens. Durch die Anwendung des Federal Acquisition Supply Chain Security Act (FASCSA) und der DFARS-Klausel 252.239-7018 entsteht eine toxische Atmosphäre. Da Anthropic formal als Risiko gilt, müssen zehntausende Zulieferer ihre Beziehungen kündigen, um ihre eigenen Pentagon-Verträge nicht zu gefährden. Das Gesetz dient nicht mehr dem Schutz vor Sabotage, sondern als Disziplinierungsinstrument gegen die eigene Industrie. Wer die moralische Souveränität über seinen Code behalten will, verliert seinen Platz in der amerikanischen Lieferkette. Die rechtliche Theorie mutiert zur Praxis der wirtschaftlichen Hinrichtung. Franklin Turner bezeichnete diesen Schritt treffend als das vertragliche Äquivalent eines Atomkriegs.

Die Wut des Pentagons speist sich aus den blutigen Erfahrungen jüngster Militäroperationen. Der Einsatz von Claude während der „Operation Epic Fury“ im Iran und des Maduro-Raids in Venezuela wirkte als Katalysator für die Eskalation. In Caracas analysierte Claude über die Palantir-Plattform Echtzeit-Datenströme, um den Standort von Nicolás Maduro zu verifizieren. Während Anthropic diesen Einsatz als eklatanten Verstoß gegen die Nutzungsbedingungen wertete, feierten die Generäle die Effizienz. Die Operation forderte 83 Opfer – ein Umstand, der die Kluft zwischen ethischer Verantwortung und operativem Hunger unüberbrückbar machte. Anthropic löste eine interne Krise aus, als man bei Palantir nachfragte, ob die Soldaten Claude für Gewaltzwecke missbraucht hatten. Das Pentagon wertete diese Nachfrage als arrogante Einmischung in klassifizierte Operationen.

In der „Operation Epic Fury“ gegen Ziele im Iran zeigte sich die wahre Schärfe des Konflikts. Die Beschleunigung der „Kill-Chain“ auf wenige Minuten macht jede menschliche ethische Abwägung unmöglich. Wenn KI-Systeme 900 Ziele in zwölf Stunden identifizieren und zur Vernichtung freigeben, erscheinen Amodeis Bedenken den Befehlshaber lediglich als lästige Bremsklötze. Das Pentagon fordert eine KI, die das Tempo der Zerstörung diktiert, statt über Kollateralschäden nachzudenken. Diese operative Realität beweist, dass das Militär die Technologie bereits jenseits aller Grenzen nutzt. Der nachfolgende Bann erscheint daher besonders zynisch.

Das brutale Vorgehen des Staates löst eine Welle der Kritik aus. Wir beobachten den Aufstieg eines digitalen Absolutismus. Menschlich gesehen droht der totale Verlust der Kontrolle. Wenn KI-Systeme eigenständig über Leben und Tod entscheiden, entzieht sich die Gewaltanwendung jeder moralischen Rechenschaftspflicht. Philosophisch betrachtet zerstört das Pentagon die „Constitutional AI“ und pervertiert damit den technologischen Fortschritt. Anstatt Intelligenz zur Lösung komplexer Probleme zu nutzen, verstümmelt der Staat sie zur blinden Waffe. Gesellschaftskritisch markiert dieser Fall das Ende der unternehmerischen Freiheit. Der Staat requiriert nicht nur Hardware, sondern beansprucht die Hoheit über das Denken und die Werte von Software-Systemen. Der Fall zeigt die Ohnmacht der Entwickler gegenüber der militärischen Zweckentfremdung.

Sogar innerhalb der Branche regt sich Widerstand. Die Resignation von Caitlin Kalinowski, der ehemaligen OpenAI-Robotics-Chefin, setzt ein deutliches Zeichen gegen den blinden Patriotismus von Sam Altman. Während Altman den Kniefall vor dem Budget probt, warnen Kritiker vor der „Double Black Box“: Das Militär versteht die Komplexität der Modelle nicht, und die Entwickler wissen nicht, welche Gräueltaten ihre Algorithmen in klassifizierten Netzwerken ermöglichen.
FAQ — Zweifel am System
Ist Claude jetzt eine Waffe?
Ja. Das Pentagon schmiedet aus dem Sprachmodell ein Bajonett. Durch die „Any Lawful Use“-Forderung und das Entfernen der Guardrails macht das Militär Claude zu einer operativen Komponente der Kriegsführung. Er identifiziert nun Ziele und beschleunigt die Vernichtung.

Was bedeutet das für zivile Nutzer?
Das Pentagon zerstört die Reputation von Claude als „sicherste KI“. Wenn der Staat Hintertüren erzwingt, kann kein Nutzer mehr sicher sein, dass seine Daten nicht ebenfalls in den Mahlstrom der militärischen Überwachung geraten.
Warum macht OpenAI bei diesem Spiel mit?
Sam Altman wählte den opportunistischen Weg. Er akzeptierte die Bedingungen des Pentagons, um sich lukrative Aufträge zu sichern. Er tarnt diesen Kniefall vor dem Budget als Patriotismus, während Mitarbeiter wie Caitlin Kalinowski aus Protest das Unternehmen verlassen.
Kann Anthropic vor Gericht gewinnen?
Die Chancen stehen schlecht. Das US-Recht räumt dem Department of War im Bereich der nationalen Sicherheit einen fast grenzenlosen Spielraum ein. Das Pentagon nutzt 10 U.S.C. § 3252 als Schild gegen jede richterliche Prüfung.
Was ist „Wartime Speed“ wirklich?
Es ist der Verzicht auf jede ethische Bremse. Hegseth will KI-Modelle innerhalb von 30 Tagen nach Erscheinen in die Kampfzone werfen, ohne Rücksicht auf Zuverlässigkeit oder langfristige Konsequenzen.
Basis-Infos für das Verständnis der Eskalation
Das Hegseth-Memo vom Januar 2026 bildet das strategische Fundament für diesen Übergriff. Es definiert sieben „Pace-Setting Projects“ (PSPs), die das Militär zur KI-Dominanz führen sollen. Diese Projekte verdeutlichen, warum die „Constitutional AI“ dem Pentagon im Weg steht.
Swarm Forge peitscht die industrielle Skalierung autonomer Drohnenschwärme voran. Hier stören ethische Sperren gegen eigenständiges Töten nur den Erfolg. Das Agent Network entwickelt KI-Agenten, die Gefechtsentscheidungen in Millisekunden treffen – zu schnell für menschliche Aufsicht. Ender’s Foundry nutzt Hochgeschwindigkeits-Simulationen zur Vorhersage gegnerischer Manöver. Open Arsenal koppelt Geheimdienstdaten direkt mit der Waffenproduktion, um Intelligenz in Stunden in Sprengkraft zu verwandeln. Project Grant verwandelt statische Abschreckung in dynamischen, KI-gesteuerten Druck. GenAI.mil bietet drei Millionen Soldaten Zugriff auf Modelle wie Claude oder Grok, jedoch ohne die ursprünglichen moralischen Filter. Enterprise Agents automatisieren schließlich die gesamte Logistik und Verwaltung der Kriegsmaschinerie.

Dieses System sieht keine Räume für moralische Autonomie vor. Wer hier mitspielt, muss seine Werte am Eingang der Pentagon-Cloud abgeben. Emil Michael, der CTO des Pentagons, führt ein „Barrier Removal Board“ an, das jede ethische Prüfung als bürokratisches Hindernis einfach wegwischt.
Strategische Implikationen der neuen Ära
Unternehmen und Beobachter müssen ihre Strategien grundlegend anpassen. Die neue Ära der Rüstung erzwingt eine Abkehr von bisherigen Gewissheiten. Modell-Agnostik wird zur Überlebensstrategie. Verlassen Sie sich niemals auf einen einzigen LLM-Anbieter. Bauen Sie Infrastrukturen so auf, dass Sie Modelle wie Claude innerhalb von Stunden ersetzen können. Politische Einstufungen blockieren den Zugriff schneller als jeder Serverausfall.

Unternehmen müssen ihre Lieferketten-Klauseln penibel auf DFARS 252.239-7018 prüfen. Die Nutzung einer „Risiko-KI“ führt zum sofortigen Ausschluss von Regierungsaufträgen. Das Risikomanagement bei Dual-Use-Technologien verschiebt sich ebenfalls. Wer Software entwickelt, die militärisch nutzbar ist, muss mit staatlicher Requirierung rechnen. Dokumentieren Sie ethische Schutzmaßnahmen so tief in der Hardware, dass kein Software-Update sie einfach löschen kann. Der Staat betrachtet private Bedenken nicht mehr als Diskussionsbeitrag, sondern als Sabotage des nationalen Interesses. Die Grenze zwischen ziviler Entwicklung und militärischer Produktion verschwindet im Schatten von 10 U.S.C. § 3252 vollständig.
Der Fall Anthropic markiert das Ende der Unschuld für die künstliche Intelligenz. Wir befinden uns nicht mehr in einem Dialog über KI-Sicherheit, sondern in einer Phase der staatlichen Requirierung von Verstand. Das Pentagon vernichtet die innovativsten Köpfe des eigenen Landes, wenn sie sich weigern, die Moral ihrer Schöpfungen dem Kriegstempo zu opfern. Die Ironie bleibt unerträglich: In dem Versuch, die Demokratie technologisch zu verteidigen, zerstört die Führung ihre fundamentalsten Werte – die Freiheit des Denkens und die Autonomie des Unternehmertums.
Wer die Moral einer KI bricht, um effizienter zu töten, hat die moralische Integrität der eigenen Führung längst verloren. Anthropic kämpft vor Gericht nicht nur um Verträge, sondern um die Frage, ob der Mensch Schöpfer oder Sklave seiner eigenen Algorithmen bleibt. Am Ende steht die bittere Erkenntnis: Im digitalen Wettrüsten opfert der Staat als Erstes das Gewissen des Codes. Wenn das Pentagon Erfolg hat, mutiert das Silicon Valley zur bloßen Abteilung des Department of War. Die „Gehirnwäsche“ an Claude ist nur der Anfang einer umfassenden Gleichschaltung der digitalen Intelligenz unter das Diktat der Vernichtung.

Quellen
- Anthropic sues US Defense Department over ’supply chain risk‘ — Bericht über die Klageeinreichung gegen die Einstufung als Supply-Chain-Risiko.
- Anthropic Supply Chain Risk Designation Takes Effect — Latest Developments — Juristische Analyse der FASCSA- und DFARS-Klauseln durch Mayer Brown.
- ‘Accelerate like hell’: Hegseth moves to reshape DOD’s AI hubs — Strategische Übersicht über die Reorganisation der Pentagon-Tech-Hubs unter Pete Hegseth.
- US military used Anthropic’s AI model Claude in Venezuela raid — Details zum Einsatz von Claude bei der versuchten Festnahme von Nicolás Maduro.
- The Pentagon is violating Anthropic’s First Amendment rights — Stellungnahme von FIRE zur Verletzung der verfassungsrechtlichen Rechte Anthropics durch das Pentagon.
- Department of War’s Artificial Intelligence-First Agenda — Analyse der AI-First-Strategie und der Pace-Setting Projects durch Holland & Knight.







