7 Min. Lesezeit

OpenAI hat sich von Microsoft abgewandt, um mit Amazon zusammenzuarbeiten. Das sagt uns das:

Seit Jahren sahen sich Käufer von Enterprise-KI einer seltsamen Einschränkung gegenüber: Wenn Sie die weltweit beliebtesten KI-Modelle in Ihrer Cloud-Umgebung ausführen wollten, mussten Sie sie auf einer einzigen Cloud betreiben. Diese Einschränkung ist gerade verschwunden, und die Art und Weise, wie sie verschwunden ist, sagt uns mehr darüber, wohin sich Enterprise-KI entwickelt, als der Deal selbst.

Am 27. April gaben Microsoft und OpenAI bekannt, dass sie die Bedingungen ihrer Partnerschaft neu gefasst hatten. Der exklusive Zugriff von Azure auf OpenAI-Modelle ist vorbei. OpenAI kann seine Produkte jetzt bei jedem Cloud-Anbieter verkaufen. Und schon am nächsten Tag stellten OpenAI und AWS etwas vor, das größer ist als der bloße Modellzugriff: Bedrock Managed Agents, powered by OpenAI, ein gemeinsam entwickeltes Produkt, das OpenAIs Frontier-Modelle in die Enterprise-Agenten-Infrastruktur von AWS einbettet.

Die Oberfläche erzählt von einer Trennung. Die eigentliche Geschichte ist, was OpenAI als Nächstes gebaut hat und wo es sich entschieden hat, es zu bauen.

Der Deal, in einfachen Worten

Die neu strukturierte Vereinbarung ändert fünf Dinge:

1. Exklusivität ist weg. OpenAI kann alle seine Produkte auf jeder Cloud bereitstellen. Azure bleibt der „primäre“ Partner, was bedeutet, dass OpenAI dort zuerst veröffentlicht, aber danach frei ist, überall anders hinzugehen.

2. Die IP-Lizenz bleibt bestehen, ist aber nicht mehr exklusiv. Microsoft behält bis 2032 Zugriff auf die Modelle und Produkte von OpenAI. Auch andere Cloud-Anbieter können diesen Zugriff nun erhalten.

3. Die Umsatzbeteiligung hat sich umgekehrt. Microsoft zahlt OpenAI keinen Anteil mehr an den Einnahmen, die es durch den Weiterverkauf von OpenAI-Modellen über Azure erzielt. OpenAI zahlt Microsoft weiterhin bis 2030 eine Umsatzbeteiligung von 20 %, nun vorbehaltlich einer Obergrenze.

4. Die AGI-Klausel ist tot. Die ursprüngliche Vereinbarung enthielt eine Bestimmung, die den Deal verändert hätte, wenn OpenAI künstliche allgemeine Intelligenz erreicht hätte. Diese Klausel wurde vollständig gestrichen. Die Vereinbarung läuft nun unabhängig von technischen Meilensteinen bis 2032.

5. Microsoft behält seine Kapitalbeteiligung. Microsoft partizipiert weiterhin als Großaktionär am Wachstum von OpenAI.

Nichts davon geschah im luftleeren Raum. Im Februar unterzeichnete OpenAI einen 50-Milliarden-Dollar-Investitionsdeal mit Amazon. Das Problem: Dieser Deal stand im Widerspruch zu Microsofts Exklusivitätsklausel. Berichten zufolge erwog Microsoft rechtliche Schritte. Die Umstrukturierung im April löste den Konflikt, indem Exklusivität zu dem wurde, was verschwindet.

Warum OpenAI den Schritt gegangen ist

OpenAIs eigene Vertriebschefin Denise Dresser sagte, die Azure-Exklusivität habe „unsere Fähigkeit eingeschränkt, Unternehmen dort zu begegnen, wo sie stehen“. Das ist eine höfliche Art zu sagen: Unternehmen arbeiten auf AWS, und sie wechselten nicht zu Azure, nur um GPT zu nutzen.

In einem am Tag nach dem Deal veröffentlichten Interview beschrieben Sam Altman und AWS-CEO Matt Garman dasselbe Muster. Unternehmen wollten OpenAI-Modelle. Ihre Daten, ihre Identitätssysteme, ihre Sicherheitskontrollen, ihre bestehende Infrastruktur – all das lag in AWS. Sie zu einem Cloud-Wechsel aufzufordern, nur um ein Modell zu betreiben, kam nicht infrage.

Garman brachte es auf den Punkt: „Unsere Kunden freuen sich sehr darüber, Zugang zu OpenAI-Technologie zu erhalten.“

Altman war ebenso direkt: „Wir freuen uns ganz klar darüber, Zugang zu AWS-Kunden zu bekommen.“

Das war keine philosophische Entscheidung. Es war eine Umsatzentscheidung. AWS ist die größte Cloud-Plattform der Welt. Anthropic wuchs teilweise so schnell, weil Claude nativ auf AWS Bedrock verfügbar war, während OpenAI es nicht war. Die Exklusivität kostete OpenAI Deals, und damit kostete sie Microsoft den Wert seiner Investition.

Bedrock Managed Agents ist die eigentliche Ankündigung

Der Großteil der Berichterstattung konzentrierte sich auf die Trennung von Microsoft. Die größere Geschichte folgte am nächsten Tag.

Bedrock Managed Agents, powered by OpenAI, bedeutet nicht einfach „OpenAI-Modelle auf AWS verfügbar“. Unternehmen konnten die OpenAI-API bereits von überall aus aufrufen. Jede Plattform mit Multi-Model-Orchestrierung routet seit über einem Jahr zwischen GPT, Claude, Gemini und anderen. Der API-Zugriff ist nicht das, was sich geändert hat.

Geändert hat sich, dass OpenAI gemeinsam mit AWS eine verwaltete Agenten-Runtime aufbaut. Das bedeutet: OpenAIs Frontier-Modelle werden in AWS-native Infrastruktur gepackt – IAM-Identität, VPC-Sicherheitsgrenzen, Zustandsverwaltung, Protokollierung, Governance und Berechtigungen. Die Daten des Kunden verlassen seine AWS-Umgebung nie. AWS übernimmt den Frontline-Support. OpenAI liefert das Modell und die Intelligenzschicht.

Altman beschrieb das als „Codex in AWS“ und bezog sich damit auf OpenAIs Coding-Agenten, der derzeit lokal auf dem Rechner eines Entwicklers läuft. Die lokale Version funktioniert gut, weil die gesamte Umgebung direkt vorliegt – keine Authentifizierungs-Komplexität, keine Sicherheitskonfiguration. Aber sie skaliert nicht für ein Unternehmen. Bedrock Managed Agents ist die Antwort auf genau dieses Skalierungsproblem.

Im Interview sagte Altman etwas, das den Kern der Sache trifft: „Ich betrachte das Harness und das Modell nicht mehr als vollständig voneinander trennbare Dinge.“ Wenn er Codex verwendet und ein großartiges Ergebnis erhält, kann er nicht immer sagen, ob das Modell oder die Infrastruktur darum herum den Verdienst hat. Beides konvergiert.

Diese Konvergenz ist der eigentliche Wandel. In den letzten zwei Jahren drehte sich die Enterprise-KI-Diskussion darum, welches Modell man wählen sollte. Altman argumentiert nun, dass das Modell allein nicht das Produkt ist. Das Produkt ist das Modell plus die Runtime. Und OpenAI hat sich entschieden, dieses konvergierte Produkt ausschließlich mit Amazon zu bauen, nicht mit Microsoft.

Auf die Frage, ob dieser Managed-Agent-Service auch auf anderen Clouds angeboten werde, war Altman klar: „Wir machen das ausschließlich mit Amazon.“

Was Microsoft tatsächlich bekommt

Es wäre leicht, das als Verlust für Microsoft zu lesen. Die Realität ist komplexer.

Die Azure-P&L von Microsoft verbessert sich unmittelbar. Microsoft zahlte OpenAI eine Umsatzbeteiligung für jeden Azure-Kunden, der OpenAI-Modelle nutzte. Diese Zahlung entfällt. Microsoft erhält weiterhin bis 2030 20 % von OpenAI. Es behält seine IP-Lizenz bis 2032. Und es hält weiterhin eine massive Kapitalbeteiligung an einem Unternehmen, das mit über 300 Milliarden US-Dollar bewertet ist.

Azure behält außerdem die Rechte an der Erstveröffentlichung. Jedes OpenAI-Produkt startet auf Azure, bevor es irgendwo anders verfügbar wird. Für Unternehmen, die bereits auf Azure arbeiten, ändert sich im Alltag nichts.

Was Microsoft verliert, ist die Sogwirkung. „Kommen Sie zu Azure, weil es der einzige Ort ist, an dem Sie GPT nativ ausführen können“ war ein echter Migrationshebel. Dieser Hebel ist weg. Azure konkurriert nun über die Stärken seiner eigenen Infrastruktur, nicht über Modellexklusivität.

Was das für Käufer von Enterprise-KI bedeutet

Für alle, die KI-Agenten betreiben, verschieben sich zwei Dinge:

Die Agenten-Runtime ist das neue Schlachtfeld. Diese Ankündigung signalisiert, dass sich der Wert in der Enterprise-KI von „welches Modell“ hin zu „in welcher Runtime diese Modelle laufen“ verschiebt. Das Modell ist Grundvoraussetzung. Die Runtime, die Identitätsschicht, die Sicherheitsgrenze, das Zustandsmanagement – dort liegt jetzt die Differenzierung. Erwarten Sie, dass Google mit einer tieferen Vertex-AI-Agentenintegration reagiert. Erwarten Sie, dass Azure den eigenen Agenten-Hosting-Ansatz weiter ausbaut. Die versteckten Kosten eng gekoppelter KI-Tools verschwinden nicht, nur weil der Cloud-Anbieter gewechselt hat. Sie verlagern sich.

Lock-in verschiebt sich, statt zu verschwinden. Unternehmen, die ihre Systeme um Azure-only OpenAI-Zugriff herum aufgebaut haben, haben jetzt Optionen. Aber Unternehmen, die sich tief in Bedrock Managed Agents einbinden, tauschen eine Abhängigkeit gegen eine andere. Die Infrastruktur, auf die Sie Ihre Agenten festlegen, ist schwerer zu verlassen als das Modell, das Sie per API aufrufen. Der Modellwechsel ist eine Konfigurationsänderung. Die Migration der Runtime ist ein Projekt.

Die Frage, die es wert ist, gestellt zu werden

Altman sagte im Interview etwas, das leicht zu übersehen ist: „Bei einem ausreichend niedrigen Preis ist die Nachfrage nach Intelligenz praktisch unbegrenzt.“ Er denkt nicht mehr in Tokens. Er denkt in Einheiten von Intelligenz, und er glaubt, dass die Nachfragekurve keine Obergrenze hat.

Wenn das stimmt und Modell und Runtime zu einem einzigen Produkt konvergieren, dann war das, was wir gerade gesehen haben, der Eröffnungsschritt in einem Plattformkrieg darum, wo KI-Agenten leben, laufen und vergütet werden. OpenAI hat sich für seine Seite entschieden. Microsoft hat sich angepasst. AWS hat die Tür geöffnet.

Am besten für diesen Wandel aufgestellt sind die Unternehmen, die Modelle bereits als austauschbar betrachten und je nach Aufgabe statt je nach Vertrag zwischen Anbietern routen. Wenn die Runtime zur Lock-in-Schicht wird, ist die Fähigkeit, darunter die Modelle zu wechseln, das, was Sie flexibel hält.

Die Frage für Unternehmenskunden lautet nicht mehr, welches Modell sie wählen sollen. Es geht darum, für welche Runtime sie sich entscheiden, denn diese Entscheidung wird sich deutlich schwieriger rückgängig machen lassen.

Heute starten

Starten Sie mit KI-Agenten zur Automatisierung von Prozessen

Nutzen Sie jetzt unsere Plattform und beginnen Sie mit der Entwicklung von KI-Agenten für verschiedene Arten von Automatisierungen

Heute starten

Starten Sie mit KI-Agenten zur Automatisierung von Prozessen

Nutzen Sie jetzt unsere Plattform und beginnen Sie mit der Entwicklung von KI-Agenten für verschiedene Arten von Automatisierungen