7 Min. Lesezeit

Was in dieser Woche mit OpenAI und Claude passiert ist und warum Unternehmen darauf achten sollten

In fünf Tagen unterzeichnete OpenAI einen Militärvertrag mit dem Pentagon. Anthropic lehnte dieselben Bedingungen ab und wurde von allen Bundesverträgen schwarzgelistet. Claude erreichte Platz 1 im App Store. Dann stürzte Claude weltweit für drei Stunden ab. Und 700.000 Nutzer versprachen, ihre ChatGPT-Abonnements zu kündigen.

Keines davon waren Modellfehler. Keine Halluzinationen, keine Probleme mit Trainingsdaten, keine technischen Fehler. Jede Störung resultierte aus Entscheidungen, politischem Druck und Nachfragewellen, die nichts mit der KI selbst zu tun hatten.

Für jeden, der diese Tools in der Produktion einsetzt, sollte dies Ihre Sichtweise auf das KI-Risiko ändern.

Was Tatsächlich Geschah

Das Verteidigungsministerium wollte, dass Anthropic Claude für "alle rechtlich zulässigen Zwecke" zulässt, einschließlich potenzieller Anwendungen in der massenhaften Überwachung und vollständig autonomen Waffensystemen. Anthropic lehnte ab. CEO Dario Amodei sagte öffentlich: "Wir können ihrem Ersuchen beim besten Willen nicht zustimmen." Sein Argument war spezifisch: Claudes aktuelle Modelle sind nicht zuverlässig genug für vollständig autonome Waffen, und massenhafte Überwachung überschreitet eine Grenze, die bestehende US-Gesetze nicht ausreichend verhindern.

Am 27. Februar trafen die Konsequenzen schnell ein. Präsident Trump ordnete an, dass jede Bundesbehörde die Technologie von Anthropic nicht mehr verwenden darf. Verteidigungsminister Pete Hegseth bezeichnete Anthropic als "Versorgungsrisiko für die nationale Sicherheit", eine Kategorie, die normalerweise für mit ausländischen Gegnern verbundene Einheiten reserviert ist. Es war das erste Mal, dass diese Bezeichnung auf ein amerikanisches Unternehmen angewendet wurde.

Stunden später verkündete OpenAI, dass es einen Vertrag mit dem Pentagon unterzeichnet habe, um seine Modelle in klassifizierten militärischen Netzen zu implementieren. Der Vertrag akzeptierte den von Anthropic abgelehnten Standard der "rechtlich zulässigen Nutzung". Sam Altman gab später zu, dass der Deal "definitiv überstürzt" war und dass "das Bild nicht gut aussieht."

Die Folgen trafen innerhalb von Tagen auf die gesamte Branche. Über 430 Mitarbeiter bei Google, OpenAI, Microsoft und Amazon unterzeichneten einen offenen Brief, der ihre Unternehmen aufforderte, die Forderungen des Pentagons abzulehnen. Leo Gao, ein Alignment-Forscher bei OpenAI, bezeichnete die Vertragssicherungen öffentlich als "nicht wirklich operativ, außer als Augenwischerei." Die QuitGPT-Bewegung wurde viral, wobei 700.000 Benutzer versprachen, ihre ChatGPT-Abonnements zu kündigen.

Die öffentliche Meinung schwenkte zugunsten von Anthropic. Claude sprang von außerhalb der Top 100 auf #1 im US-App Store und überholte ChatGPT. Die Anzahl der freien Nutzer stieg seit Januar um mehr als 60 %. Die Zahl der zahlenden Abonnenten verdoppelte sich.

Am 2. und 3. März fiel Claude dann mehrfach aus. Anthropic führte den Ausfall auf eine "beispiellose Nachfrage" zurück. Die Authentifizierungsinfrastruktur war dem Benutzeransturm nicht gewachsen. Verbraucherdienste wie claude.ai, mobile Apps und Claude Code waren stundenlang offline.

Fünf Unternehmens-KI-Risiken, Die Dadurch Aufgedeckt Wurden

1. Eine Regierungsentscheidung kann die gesamte Kundenbasis Ihres KI-Anbieters stören

Die Schwarzlistung von Anthropic betraf nicht nur Bundesbehörden. Die Bezeichnung "Versorgungsrisiko" bedeutet, dass jedes Unternehmen mit einem Pentagon-Vertrag nun zertifizieren muss, dass es Claude nicht nutzt, selbst für nicht-verteidigungsbezogene Arbeiten. Dazu gehören Verteidigungsvertragspartner, deren Subunternehmen, Beratungsfirmen mit Regierungsabteilungen und Technologieunternehmen mit Bundesbereichen.

Viele dieser Unternehmen sind auch Unternehmenskunden von Anthropic. Fortune berichtete, dass risikoscheue Rechtsteams bei großen Unternehmen Claude möglicherweise vorsorglich in ihrer gesamten Umgebung deaktivieren könnten, unabhängig davon, ob sie direkten Verteidigungseinfluss haben oder nicht. Der abschreckende Effekt erreicht jedes Unternehmen, dessen Rechtsteam entscheidet, dass das Risiko der Verbindung es nicht wert ist.

Sie müssen kein Regierungskunde sein, damit eine Regierungsentscheidung das Geschäft Ihres KI-Anbieters, seine Roadmap, seine Finanzierung und den Dienst, auf den Sie angewiesen sind, stört.

2. Die Regierungsvereinbarungen Ihres Anbieters schaffen Compliance-Risiken, die Sie nicht eingegangen sind

Der Pentagon-Vertrag von OpenAI erlaubt dem Verteidigungsministerium, seine Modelle für "alle rechtlich zulässigen Zwecke" zu verwenden. Rechtsexperten haben erhebliche Lücken in dem, was diese Sprache tatsächlich verhindert, aufgezeigt. Der Vertrag verweist auf bestehende Gesetze und Richtlinien, aber diese können geändert werden. Ein Alignment-Forscher bei OpenAI beschrieb die Schutzmaßnahmen als "Augenwischerei".

Für die meisten Unternehmen sind die militärischen Details nebensächlich. Wichtiger ist die neue Sorgfaltsfrage: Was hat Ihr KI-Anbieter mit Regierungen vereinbart, und steht irgendetwas davon im Konflikt mit Ihren eigenen regulatorischen Verpflichtungen?

Wenn Sie unter dem EU-KI-Gesetz oder der DSGVO operieren und Ihr KI-Anbieter an Regierungsdatenprogrammen mit lose definierten Grenzen teilnimmt, muss Ihr Rechtsteam bewerten, ob dies indirekte Risiken schafft. Vor sechs Monaten stellte niemand diese Frage während der Lieferantenevaluierung. Jetzt gehört es in jede KI-Beschaffungsliste.

3. Die Popularität Ihres Anbieters ist jetzt ein Zuverlässigkeitsrisiko

Claudes Ausfall am 2. März wurde nicht durch einen Fehler oder ein Kapazitätsplanungsproblem im herkömmlichen Sinne verursacht. Er wurde durch die öffentliche Unterstützung verursacht. Nach dem Pentagon-Showdown drängten sich Benutzer auf die Plattform. Kostenlose Anmeldungen brachen diese Woche jeden Tag Rekorde. Die Authentifizierungsinfrastruktur konnte nicht mithalten, und Verbraucherdienste waren fast drei Stunden lang ausgefallen.

OpenAI stieß einen Monat zuvor auf eine ähnliche Wand. Nach der Einführung der Codex-Desktop-App, die am ersten Tag 200.000 Downloads erreichte, fiel ChatGPT an zwei aufeinanderfolgenden Tagen für Tausende von Nutzern aus. Die Gesamtbetriebszeit von ChatGPT liegt derzeit bei 98,90 % im Vergleich zu 99,76 % bei der API.

Wenn Sie ein Unternehmen sind, das für ein SLA bezahlt, wird die Zuverlässigkeit Ihres Anbieters jetzt durch Nachfragewellen beeinflusst, die durch Nachrichtenzyklen, Produkteinführungen und soziale Medien ausgelöst werden. Keiner dieser Faktoren liegt in Ihrer Kontrolle, und keiner davon taucht in der Betriebszeithistorie eines Anbieters auf, bis sie passieren.

4. Ihre Belegschaft kann KI-Anbieter schneller wechseln als die IT darauf reagieren kann

Die QuitGPT-Bewegung veranlasste 700.000 Benutzer, in wenigen Tagen die Kündigung ihrer Abonnements zu versprechen. Anthropic reagierte, indem es die Wechselwerkzeuge verbesserte und den Wechsel von ChatGPT zu Claude erleichterte.

Das ist für Unternehmen von Bedeutung, da Ihre Teams diese Tools bereits täglich verwenden. Wenn Entwickler, Analysten und Betreiber KI-Tools basierend auf persönlicher Überzeugung oder viralen Kampagnen wechseln, bricht Ihre Standardisierung zusammen. Eingabebefehle, die für ein Modell erstellt wurden, lassen sich nicht sauber auf ein anderes übertragen. Arbeitsabläufe, die auf spezifisches Modellverhalten abgestimmt sind, führen bei einem anderen Anbieter zu unterschiedlichen Ergebnissen. Shadow AI war bereits ein wachsendes Problem für Unternehmen. Jetzt hat es einen neuen Beschleuniger.

5. Die Auswahl von KI-Anbietern erfordert jetzt eine Kategorie der Sorgfaltspflicht, die es zuvor nicht gab

Bis letzte Woche war die Auswahl eines KI-Anbieters eine Frage der Modellqualität, der Preisgestaltung, der Zuverlässigkeit der API und der Einhaltung von Zertifizierungen. Diese sind immer noch wichtig. Aber die Ereignisse dieser Woche fügen neue Dimensionen hinzu, die in jede Bewertung gehören.

Wie hoch ist die Exposition Ihres Anbieters gegenüber Regierungsverträgen und welche Bedingungen haben sie akzeptiert? Wenn Ihr Anbieter in einem Markt, in dem Sie tätig sind, Einschränkungen unterliegt, wie schnell können Sie wechseln? Wenn die Benutzerbasis Ihres Anbieters ansteigt oder zusammenbricht, bleibt Ihr SLA bestehen? Unterstützt Ihre Architektur das Umschalten auf ein anderes Modell, ohne Ihre Arbeitsabläufe neu zu erstellen?

Unternehmen, die Produktions-KI-Agenten auf einem einzigen Anbieter betreiben, tragen ein Konzentrationsrisiko, das es vor sechs Monaten nicht gab. Das ist keine Spekulation. Letzte Woche hat es bewiesen.

Was Unternehmen Jetzt Tun Sollten

Überprüfen Sie Ihre Anbieterabhängigkeit. Kartieren Sie jeden Produktionsarbeitsablauf auf seinen KI-Anbieter. Identifizieren Sie diejenigen, die kein alternatives System haben. Gartner prognostiziert 2,52 Billionen US-Dollar an globalen KI-Ausgaben in diesem Jahr, aber der Enterprise AI Maturity Index von ServiceNow ergab, dass weniger als 1 % der Organisationen auf einem Reifegrad von über 50 auf einer 100-Punkte-Skala liegen. Die Lücke zwischen Ausgaben und Bereitschaft ist der Bereich, in dem das Risiko lebt.

Auf Modellportabilität hin entwickeln. Die Frage ist, ob Ihre Arbeitsabläufe an ein bestimmtes Modell gebunden sind oder ob sie bei Bedarf auf Alternativen umgeleitet werden können. Eine aktuelle CIO-Analyse führte den Begriff "agentische Amnesie" ein: der Zustand, in dem Unternehmen so abhängig von KI-Systemen sind, dass sie die Fähigkeit verlieren, sich zu erholen, wenn diese Systeme ausfallen. Im Gegensatz zu einer Datenbank, die Sie aus einem Snapshot wiederherstellen können, speichern KI-Systeme Einbettungen, feinabgestimmte Gewichte und Agentenarbeitsabläufe, die das organisatorische Wissen darstellen. Der Verlust des Zugangs zu Ihrem Anbieter bedeutet den Verlust dieses Wissens.

Führen Sie eine Ausfallübung durch. Simulieren Sie den Verlust Ihres primären KI-Anbieters für 48 Stunden. Finden Sie heraus, was ausfällt, wer die Lücke überbrücken kann und wie lange die Wiederherstellung dauert. Die meisten Unternehmen haben dies noch nie getan. Nach letzter Woche sind diejenigen, die es getan haben, im Vorteil.

Das Wird Weiterhin Passieren

Vor einem Jahr bedeutete unternehmerisches KI-Risikomanagement, Halluzinationsraten zu überwachen, Token-Kosten zu verfolgen und Datenschutzrichtlinien zu überprüfen. Diese Bedenken sind nicht verschwunden, aber sie sind nicht mehr das vollständige Bild.

KI-Anbieter treffen jetzt Entscheidungen über Regierungsverträge, ethische Grenzen und Zugangspolitiken, die direkt ihre Unternehmenskunden betreffen. Regierungen können den Zugang zu einem Anbieter über Nacht einschränken. Virale Bewegungen können innerhalb einer Woche Hunderttausende von Nutzern verschieben. Nachfragewellen von Nachrichtenzyklen können Dienste lahmlegen, auf die Unternehmen für den täglichen Betrieb angewiesen sind.

Die Organisationen, die dies am besten navigieren werden, sind diejenigen, deren KI-Infrastruktur mehrere Modelle unterstützt, Anbieterwechsel ohne erneute Erstellung von Arbeitsabläufen ermöglicht und Resilienz als zentralen betriebswirtschaftlichen Anforderung ansieht.

Heute starten

Starten Sie mit KI-Agenten zur Automatisierung von Prozessen

Nutzen Sie jetzt unsere Plattform und beginnen Sie mit der Entwicklung von KI-Agenten für verschiedene Arten von Automatisierungen

Heute starten

Starten Sie mit KI-Agenten zur Automatisierung von Prozessen

Nutzen Sie jetzt unsere Plattform und beginnen Sie mit der Entwicklung von KI-Agenten für verschiedene Arten von Automatisierungen