7 Min. Lesezeit
Was in dieser Woche mit OpenAI und Claude passiert ist und warum Unternehmen darauf achten sollten

In fünf Tagen unterzeichnete OpenAI einen Militärvertrag mit dem Pentagon. Anthropic lehnte die gleichen Bedingungen ab und wurde von allen Bundesverträgen schwarze Liste gesetzt. Claude erreichte Platz #1 im App Store. Dann stürzte Claude weltweit für drei Stunden ab. Und 700.000 Benutzer versprachen, ihre ChatGPT-Abonnements zu kündigen.
Keines davon waren Modellfehler. Keine Halluzinationen, keine Probleme mit Trainingsdaten, keine technischen Fehler. Jede Störung kam von Entscheidungen, Politik und Nachfrageanstiegen, die nichts mit der KI selbst zu tun hatten.
Für alle, die diese Werkzeuge in der Produktion einsetzen, sollte sich das auf Ihr Denken über KI-Risiken auswirken.
Was tatsächlich passierte
Das Verteidigungsministerium wollte, dass Anthropic Claude erlaubt, für "alle rechtmäßigen Zwecke" genutzt zu werden, einschließlich potenzieller Anwendungen in der umfassenden inländischen Überwachung und vollständig autonomen Waffensystemen. Anthropic lehnte dies ab. CEO Dario Amodei sagte öffentlich, "Wir können ihrer Anfrage nicht guten Gewissens zustimmen." Seine Argumentation war spezifisch: Die aktuellen Modelle von Claude sind nicht zuverlässig genug für vollständig autonome Waffen, und umfassende inländische Überwachung überschreitet eine Grenze, die das bestehende US-Recht nicht angemessen verhindert.
Am 27. Februar landeten die Konsequenzen schnell. Präsident Trump ordnete an, dass jede Bundesbehörde die Nutzung von Anthropics Technologie einstellt. Verteidigungsminister Pete Hegseth erklärte Anthropic als "Risiko für die nationale Sicherheit in der Lieferkette", eine Kategorie, die normalerweise für mit ausländischen Gegnern verbundene Entitäten reserviert ist. Es war das erste Mal, dass diese Bezeichnung auf ein amerikanisches Unternehmen angewendet wurde.
Stunden später gab OpenAI bekannt, dass es einen Vertrag mit dem Pentagon unterzeichnet hatte, um seine Modelle in klassifizierten militärischen Netzwerken einzusetzen. Der Vertrag akzeptierte den Standard der "jeder rechtmäßige Nutzung", den Anthropic abgelehnt hatte. Sam Altman gab später zu, dass der Vertrag "definitiv übereilt" sei und dass "die Optik nicht gut aussieht".
Der Fallout verbreitete sich innerhalb von Tagen in der Branche. Über 430 Mitarbeiter von Google, OpenAI, Microsoft und Amazon unterzeichneten einen offenen Brief und forderten ihre Unternehmen auf, die Forderungen des Pentagons abzulehnen. Leo Gao, ein Forscher für OpenAI-Ausrichtung, nannte die Vertragsschutzmaßnahmen öffentlich "nicht wirklich operativ außer als Schaufensterdekoration." Die QuitGPT-Bewegung ging viral, wobei 700.000 Benutzer sich verpflichteten, ChatGPT-Abonnements zu kündigen.
Die öffentliche Meinung schwenkte in Richtung Anthropic. Claude sprang von außerhalb der Top 100 auf #1 auf dem US App Store und überholte ChatGPT. Die kostenlosen Benutzer wuchsen seit Januar um mehr als 60 %, die bezahlten Abonnenten mehr als verdoppelt.
Dann am 2. und 3. März fiel Claude mehrmals aus. Anthropic führte den Ausfall auf "beispiellose Nachfrage" zurück. Die Authentifizierungsinfrastruktur knickte unter dem Nutzerschub ein. Verbraucherdienste, einschließlich claude.ai, mobile Apps und Claude Code, waren stundenweise pro Ausfall offline.
Fünf Unternehmens-KI-Risiken, die offengelegt wurden
1. Eine Regierungsentscheidung kann die gesamte Kundenbasis Ihres KI-Anbieters stören
Die schwarze Liste von Anthropic betraf nicht nur Bundesbehörden. Die Bezeichnung "Risiko in der Lieferkette" bedeutet, dass jedes Unternehmen mit einem Pentagon-Vertrag jetzt zertifizieren muss, dass es Claude nicht verwendet, selbst für Nicht-Verteidigungsarbeiten. Das schließt Verteidigungsunternehmen, deren Unterauftragnehmer, Beratungsfirmen mit Regierungsabteilungen und Technologieunternehmen mit Bundesabteilungen ein.
Viele dieser Unternehmen sind auch Unternehmenskunden von Anthropic. Fortune berichtete, dass risikoscheue Rechtsteams bei großen Unternehmen Claude möglicherweise vorsorglich in ihrer gesamten Umgebung deaktivieren, unabhängig davon, ob sie direkten Verteidigungskontakt haben. Diese abschreckende Wirkung erreicht jedes Unternehmen, dessen Rechtsteam entscheidet, dass das Risiko einer Assoziation nicht wert ist.
Sie müssen kein Regierungskunde sein, damit eine Regierungsentscheidung das Geschäft Ihres KI-Anbieters, seinen Fahrplan, seine Finanzierung und den Service, auf den Sie sich verlassen, stört.
2. Die staatlichen Vereinbarungen Ihres Anbieters schaffen Compliance-Risiken, für die Sie sich nicht angemeldet haben
Der Pentagon-Vertrag von OpenAI ermöglicht es dem Verteidigungsministerium, seine Modelle für "alle rechtmäßigen Zwecke" zu verwenden. Rechtsexperten haben erhebliche Lücken in Bezug auf das, was diese Sprache tatsächlich verhindert, hervorgehoben. Der Vertrag bezieht sich auf bestehende Gesetze und Richtlinien, aber diese Richtlinien können geändert werden. Ein OpenAI-Ausrichtungsforscher beschrieb die Schutzmaßnahmen als "Schaufensterdekoration."
Für die meisten Unternehmen sind die militärischen Einzelheiten zweitrangig. Was zählt, ist die neue Due-Diligence-Frage: Was hat Ihr KI-Anbieter mit Regierungen vereinbart, und steht etwas davon im Widerspruch zu Ihren eigenen regulatorischen Verpflichtungen?
Wenn Sie unter dem EU-KI-Gesetz oder der DSGVO operieren und Ihr KI-Anbieter an Regierungsdatenprogrammen mit lose definierten Grenzen teilnimmt, muss Ihr Rechtsteam bewerten, ob dies indirekte Risiken schafft. Vor sechs Monaten hat niemand diese Frage während der Anbieterbewertung gestellt. Jetzt gehört sie in jede KI-Beschaffung Checkliste.
3. Die Popularität Ihres Anbieters ist jetzt ein Zuverlässigkeitsrisiko
Der Ausfall von Claude am 2. März wurde nicht durch einen Fehler oder ein Kapazitätsplanungs-Versagen im traditionellen Sinne verursacht. Er wurde durch öffentliche Unterstützung verursacht. Nach dem Stillstand mit dem Pentagon strömten Benutzer auf die Plattform. Kostenlose Anmeldungen brachen jeden Tag dieser Woche Allzeithochs. Die Authentifizierungsinfrastruktur konnte nicht mithalten und Verbraucherdienste fielen fast drei Stunden lang aus.
OpenAI stieß einen Monat zuvor eine ähnliche Wand an. Nach dem Start seiner Codex-Desktop-App, die am ersten Tag 200.000 Downloads verzeichnete, fiel ChatGPT zwei Tage in Folge für Tausende von Nutzern aus. Die Gesamtlaufzeit von ChatGPT liegt derzeit bei 98,90 %, verglichen mit 99,76 % für die API.
Wenn Sie ein Unternehmen sind, das für eine SLA bezahlt, wird die Zuverlässigkeit Ihres Anbieters jetzt durch Verbrauchernachfrageschwankungen beeinflusst, die durch Nachrichtenzyklen, Produkteinführungen und sozialen Medienauslöser verursacht werden. Keine davon ist in Ihrer Kontrolle und keine davon erscheinen in der Verfügbarkeitsverlauf eines Anbieters, bis sie passieren.
4. Ihre Belegschaft kann KI-Anbieter schneller wechseln als die IT reagieren kann
Die QuitGPT-Bewegung hat innerhalb weniger Tage 700.000 Benutzer dazu gebracht, Abonnements zu kündigen. Anthropic reagierte mit der Verbesserung seiner Werkzeuge zum Wechseln von Anbietern, was den Wechsel von ChatGPT zu Claude erleichtert.
Das ist für Unternehmen wichtig, weil Ihre Teams diese Tools bereits täglich verwenden. Wenn Entwickler, Analysten und Betreiber KI-Tools basierend auf persönlicher Überzeugung oder viralen Kampagnen wechseln, bricht Ihre Standardisierung. Für ein Modell erstellte Eingabeaufforderungen übertragen sich nicht sauber auf ein anderes. Auf ein bestimmtes Modellverhalten abgestimmte Workflows führen zu unterschiedlichen Ergebnissen bei einem anderen Anbieter. Schatten-KI war bereits ein wachsendes Problem für Unternehmen. Jetzt hat es einen neuen Beschleuniger.
5. Die Auswahl von KI-Anbietern erfordert nun eine Kategorie von Sorgfaltspflicht, die zuvor nicht existierte
Bis letzte Woche war die Wahl eines KI-Anbieters eine Frage der Modellqualität, Preisgestaltung, API-Zuverlässigkeit und Compliance-Zertifizierungen. Diese sind weiterhin von Bedeutung. Aber die Ereignisse dieser Woche haben neue Dimensionen hinzugefügt, die in jeder Bewertung enthalten sein müssen.
Welche Exposition hat Ihr Anbieter gegenüber Regierungsverträgen und welche Bedingungen haben sie akzeptiert? Wenn Ihr Anbieter in einem Markt eingeschränkt ist, in dem Sie operieren, wie schnell können Sie wechseln? Wenn die Benutzerbasis Ihres Anbieters ansteigt oder zusammenbricht, wird Ihr SLA halten? Unterstützt Ihre Architektur das Failover zu einem anderen Modell, ohne Ihre Workflows neu aufzubauen?
Unternehmen, die Produktions-KI-Agenten bei einem einzigen Anbieter betreiben, tragen Konzentrationsrisiko, das vor sechs Monaten nicht existierte. Das ist keine Spekulation. Letzte Woche hat es bewiesen.
Was Unternehmen jetzt tun sollten
Prüfen Sie Ihre Anbieterabhängigkeit. Kartieren Sie jeden Produktionsworkflow seinem KI-Anbieter zu. Identifizieren Sie, welche keine Alternative haben. Gartner prognostiziert in diesem Jahr weltweite KI-Ausgaben in Höhe von 2,52 Billionen Dollar, aber der Enterprise AI Maturity Index von ServiceNow ergab, dass weniger als 1 % der Organisationen über 50 auf einer 100-Punkte-Reifeskala erreichen. Die Lücke zwischen Ausgaben und Bereitschaft ist dort, wo das Risiko liegt.
Entwickeln Sie für Modellportabilität. Die Frage ist, ob Ihre Workflows an ein bestimmtes Modell gebunden sind oder ob sie bei Bedarf auf Alternativen umgeleitet werden können. Eine aktuelle CIO-Analyse führte den Begriff "agentic amnesia" ein: der Zustand, in dem Unternehmen so abhängig von KI-Systemen werden, dass sie die Fähigkeit verlieren, sich zu erholen, wenn diese Systeme ausfallen. Anders als eine Datenbank, die Sie aus einem Snapshot wiederherstellen können, akkumulieren KI-Systeme Einbettungen, feinabgestimmte Gewichte und Agenten-Workflows, die organisatorische Intelligenz darstellen. Der Verlust des Zugriffs auf Ihren Anbieter bedeutet den Verlust dieser Intelligenz.
Führen Sie eine Fehlerübung durch. Simulieren Sie den Ausfall Ihres primären KI-Anbieters für 48 Stunden. Finden Sie heraus, was bricht, wer die Lücke überbrücken kann und wie lange die Erholung dauert. Die meisten Unternehmen haben dies noch nie getan. Nach letzter Woche sind diejenigen, die es getan haben, im Vorteil.
Dies wird weiterhin passieren
Vor einem Jahr bedeutete das Management von unternehmensweiten KI-Risiken die Überwachung von Halluzinationsraten, die Verfolgung von Token-Kosten und die Überprüfung von Datenschutzrichtlinien. Diese Bedenken sind nicht verschwunden, aber sie sind nicht mehr das vollständige Bild.
KI-Anbieter treffen jetzt Entscheidungen über Regierungsverträge, ethische Grenzen und Zugriffsrichtlinien, die ihre Unternehmenskunden direkt betreffen. Regierungen können den Zugriff auf einen Anbieter über Nacht einschränken. Virale Bewegungen können Hunderttausende von Benutzern in einer Woche verschieben. Nachfrageschübe durch Nachrichtenzyklen können Dienste lahmlegen, auf die Unternehmen für den täglichen Betrieb angewiesen sind.
Die Organisationen, die dies am besten navigieren werden, sind diejenigen, deren KI-Infrastruktur mehrere Modelle unterstützt, Anbieterwechsel ohne Wiederaufbau von Workflows ermöglicht und Resilienz als wesentliche betriebliche Anforderung betrachtet.





