Finanznachrichten für Aktien & Börse
Startseite
Kostenlose Aktien & Börsen-Reports
Börsen-Newsletter


3. März 2026

Washington schmeißt Anthropic raus: Warum jetzt OpenAI übernimmt

Anthropic
Foto: Depositphotos.com / rafapress

Der US-Regierung reicht ein Warnschild aus dem Pentagon – und schon fliegt ein KI-Anbieter reihenweise aus Behörden-Tools. Das Außenministerium stellt den internen Chatbot „StateChat“ von Anthropic auf OpenAI um, „fürs Erste“ mit GPT4.1. Das ist kein Technik-Update, das ist ein Machtwort.

Am Montag haben laut Reuters gleich drei Kabinettsbehörden nachgezogen: State, Treasury und Health and Human Services (HHS) beenden oder stoppen die Nutzung von Anthropic-Produkten rund um den Chatbot Claude. Die Aktion wirkt wie ein Dominoeffekt – und sie trifft eine Firma, die bisher ausgerechnet bei sicherheitsrelevanter KI ganz vorne mitspielen wollte.

Trump-Weisung: Anthropic soll raus – mit Ansage

Präsident Donald Trump ordnete Reuters zufolge an, dass alle US-Behörden Anthropic ausphasen sollen. Auslöser ist ein Urteil des Verteidigungsministeriums: Anthropic sei ein „supply-chain risk“ – übersetzt: ein Risiko in der Lieferkette, also potenziell unsicher als Zulieferer. In Washington ist das ein Stempel, der Firmen ziemlich schnell zum Problemfall macht.

Und die Uhr tickt: Trump gab dem Pentagon und anderen Behörden am Freitag eine Sechs-Monats-Frist für den Ausstieg. Finanzminister Scott Bessent machte den Schritt am Montag öffentlich und schrieb auf X, sein Ministerium beende jede Nutzung von Anthropic-Produkten, inklusive Claude.

HHS, State – und sogar Fannie/Freddie: Der Kreis wird größer

Auch HHS ging auf Linie. In einer internen Nachricht, die Reuters vorliegt, werden Mitarbeiter aufgefordert, stattdessen andere KI-Plattformen zu nutzen – genannt werden ChatGPT und Gemini. Eine offizielle Stellungnahme blieb zunächst aus.

Beim Außenministerium wird es besonders konkret: In einem Memo, das Reuters gesehen hat, heißt es, StateChat werde auf OpenAI umgestellt. Ein Sprecher des State Department, Tommy Pigott, schrieb Reuters per E-Mail, man setze Trumps Vorgabe um und bringe die Programme „in full compliance“ – also in volle Regel-Konformität.

Der Streitpunkt: „Guardrails“ – wer setzt die Leitplanken?

Man kann es nicht schöner verpacken: Hier geht es nicht nur um Anbieter, sondern um Kontrolle. Reuters beschreibt einen Showdown zwischen Pentagon und Anthropic über Guardrails – das sind die Leitplanken, die festlegen, was eine KI darf und was nicht. Und dahinter steckt die größere Frage: Entscheidet am Ende der Staat oder die Branche, wie KI im Militärumfeld eingesetzt wird?

Laut Reuters war die Trump-Regierung mit Anthropic über Schutzvorkehrungen im Clinch, die verhindern sollen, dass Militär- und Geheimdienste die Technik für autonome Waffen-Zielauswahl oder inländische Überwachung nutzen. Das ist mehr als eine Vertragsklausel. Das ist der Kernkonflikt: Wie viel Macht bekommt KI – und wer zieht die rote Linie?

OpenAI rückt nach – und Altman zieht eine rote Linie bei Überwachung

In dieses Vakuum stößt OpenAI. Reuters berichtet: Spät am Freitag kündigte OpenAI, das unter anderem von Microsoft (und weiteren Investoren, darunter auch Amazon) gestützt wird, einen eigenen Deal an, um Technologie im klassifizierten Netzwerk des Pentagon auszurollen – also in einem abgeschotteten, geheimen Behördennetz.

Am Montag legte CEO Sam Altman nach: OpenAI werde den Deal „amend“, also nachschärfen, damit klar ist, dass das System nicht „intentionally“ – nicht absichtlich – zur domestic surveillance von US-Personen und Staatsangehörigen genutzt werde. Altman schrieb außerdem, das Pentagon verstehe das als Verbot von gezieltem Tracking, Überwachen oder Monitoring – ausdrücklich auch dann, wenn dafür kommerziell beschaffte personenbezogene oder identifizierbare Daten genutzt würden. Genau daran wird sich messen lassen, ob dieser Schwenk mehr ist als ein Anbieterwechsel – nämlich ein neues Regelwerk für KI in der US-Sicherheitsarchitektur.