6 Min. Lesezeit
SpaceX hat Cursor gerade mit 60 Milliarden US-Dollar bewertet. Die eigentliche Geschichte ist, wofür sie tatsächlich bezahlen.

Das derzeit wertvollste Unternehmen im KI-Bereich hat kein Foundation Model gebaut. Es hat einen Code-Editor gebaut.
Cursor berechnet Entwicklern ungefähr das, was der Betrieb von Modellen Dritter im Hintergrund kostet. Laut Contrary Research bepreist das Unternehmen seine Abos weiterhin auf oder nahe seinen eigenen Inferenzkosten. Die Modellebene ist fast ein Durchlaufposten. Und doch hat Cursor 2 Milliarden US-Dollar annualisierten Umsatz und 9.900 % ARR-Wachstum erreicht, bevor es überhaupt ein eigenes Gewicht trainiert hatte.
SpaceX, das im Februar 2026 mit Elon Musks xAI-Sparte fusionierte, hat sich gerade eine Option zum Erwerb von Cursor für 60 Milliarden US-Dollar gesichert. Der Deal ist als Zwei-Wege-Modell strukturiert: 10 Milliarden US-Dollar allein für die Zusammenarbeit oder 60 Milliarden US-Dollar, um das Unternehmen noch in diesem Jahr vollständig zu übernehmen. Zum höheren Betrag läge die Bewertung von Cursor über der von Ford und Delta Air Lines zusammen.
Ein vier Jahre altes Unternehmen. Bis März 2026 kein proprietäres Modell. Und eine Bewertung, die es unter die wertvollsten KI-Unternehmen der Welt einordnet. Die Frage ist, wofür SpaceX eigentlich bezahlt.
Das Modell ist nicht der Burggraben
TechCrunch merkte an, dass der Deal „die Schwächen beider Unternehmen ausgleichen könnte“, und wies darauf hin, dass weder Cursor noch xAI proprietäre Modelle haben, die mit Anthropic oder OpenAI mithalten. Diese Einordnung greift zu kurz.
Die Modellunabhängigkeit von Cursor ist keine Schwäche. Sie ist die Kernthese. Das Unternehmen erreichte schätzungsweise 6,7 Millionen US-Dollar Umsatz pro Mitarbeitendem, während es sich fast vollständig auf Claude, GPT und andere Drittanbieter-Modelle stützte. Stattdessen baute es eine Anwendungsebene, die die gesamte Codebasis eines Nutzers indexiert, Namenskonventionen lernt, die Projektgeschichte nachverfolgt und all diesen Kontext um das jeweilige Modell legt, das in diesem Quartal gerade am besten ist. Wenn sich Modelle verbessern, verbessert sich Cursor automatisch. Wenn Modelle günstiger werden, steigen Cursors Margen. Die Modelle sind austauschbar. Der Workflow-Kontext ist es nicht.
Cursor begann erst im März 2026 mit Composer 2 sein eigenes trainiertes Modell auszuliefern, aufgebaut auf der Open-Source-Basis Kimi K2.5 von Moonshot AI. Doch die Bewertung von 60 Milliarden US-Dollar wurde nicht wegen Composer 2 festgelegt. Sie entstand durch die vier Jahre Produktarbeit davor, also den Teil, der nichts mit dem Training von Gewichten zu tun hatte und alles mit dem Verständnis dafür, wie Entwickler tatsächlich arbeiten.
Eine Studie der University of Chicago ergab, dass Teams, die den Agenten von Cursor nutzen, 39 % mehr Pull Requests zusammenführen, ohne dass die Revert-Rate steigt. Dieser Produktivitätsgewinn kam nicht von einem besseren Modell. Er entstand dadurch, dass die Anwendungsebene wusste, was der Entwickler vorhatte, bevor er mit dem Tippen fertig war. Kein Foundation Model bringt diesen Kontext von Haus aus mit. Er muss Projekt für Projekt, Team für Team in der Schicht zwischen Nutzer und Modell aufgebaut werden.
Warum SpaceX die Workflow-Ebene will, nicht nur ein Modelllabor
Cursor sagte, es sei vor diesem Deal „durch Rechenleistung begrenzt“ gewesen. SpaceX verbindet seinen Colossus-Supercomputer, den xAI auf eine Million H100-äquivalente GPUs skalieren will, mit dem Produkt und der Distribution von Cursor. Das erklärte Ziel: „die weltweit beste KI für Programmier- und Wissensarbeit“.
Der zweite Teil ist aufschlussreich. KI für Wissensarbeit, nicht nur für das Programmieren.
Die Nutzerbasis spiegelt das bereits wider. Vibe Coding, bei dem nicht-technische Personen in Klartext beschreiben, was sie wollen, und die KI den Code schreibt, hat Cursors adressierbaren Markt weit über die Engineering-Abteilungen hinaus geöffnet. Produktmanager erstellen Prototypen, ohne Tickets einzureichen. Designer bauen interaktive Mockups. Betriebsteams skripten Automatisierungen, auf die sie früher quartalsweise warten mussten.
60 % von Cursors Umsatz stammen aus Unternehmenskonten. Dieser Anteil wächst nicht, weil Engineering-Abteilungen laufend weitere Lizenzen hinzufügen, sondern weil auch Nicht-Engineering-Teams feststellen, dass dasselbe Tool ihre Probleme löst. Salesforce berichtete, dass über 90 % seiner 20.000 Entwickler Cursor nutzen, doch die dynamischere Kennzahl ist die Akzeptanz bei Nicht-Entwicklern innerhalb derselben Verträge.
GitHub Copilot hält weiterhin rund 42 % des KI-Coding-Marktes, während Cursor bei 18 % liegt. Copilot hat Microsofts Vertriebskanäle und einen Vorsprung von zwei Jahren. Cursor wächst trotzdem schneller, weil der Produktunterschied nicht darin liegt, welches Modell die Autovervollständigung antreibt. Entscheidend ist, wie tief das Tool die Arbeit versteht. Dieses Verständnis sitzt in der Workflow-Ebene, und es verstärkt sich mit der Nutzung.
Cursor erreichte 100 Millionen US-Dollar ARR ohne Marketingausgaben. Das Produkt verbreitete sich Bottom-up, weil einzelne Nutzer den unmittelbaren Mehrwert sahen, ihren Teams davon berichteten und der Einkauf dem Budget folgte. Dieses Adoptionsmuster ist das Gegenteil davon, wie die meisten Unternehmen KI einkaufen, und genau deshalb zeigen 42 % der KI-Implementierungen in Unternehmen keinen ROI, während Cursor seinen Umsatz jedes Quartal verdoppelt. Das Tool fügt sich in bestehende Workflows ein. Es verlangt nicht, dass Menschen ihre Arbeitsweise ändern.
Das gleiche Muster gilt über Code hinaus
Wenn die Workflow-Ebene dort ist, wo in der Softwareentwicklung 60 Milliarden US-Dollar Wert liegen, ist die naheliegende Frage, ob dieselbe Verteidigbarkeit auch für andere professionelle Funktionen gilt. Die strukturelle Antwort lautet ja, und die Gründe sind dieselben, die Cursor verteidigbar gemacht haben.
Jede operative Funktion hat domänenspezifischen Kontext, den kein Foundation Model out of the box mitbringt. Ein Team in der Kreditorenbuchhaltung hat einen Kontenplan, Lieferantenbeziehungen, Freigabehierarchien und zwei Jahre Transaktionsmuster. Ein Recruiting-Team hat die Historie von Stellenanforderungen, Feedback-Schleifen aus Interviews und Einstellungspräferenzen, die je nach Rolle und Abteilung variieren. Ein Support-Team hat Eskalationspfade, produktspezifische Troubleshooting-Sequenzen und Tonalitätsrichtlinien, die je nach Prioritätsstufe variieren. All dieser Kontext existiert nicht innerhalb eines Foundation Models. Er muss in die Anwendungsebene eingebaut werden, die zwischen Modell und Arbeit sitzt.
Ein KI-Agent, der Rechnungen in einem ERP verarbeitet und Anomalien anhand der tatsächlichen Transaktionshistorie markiert, baut denselben kumulativen Kontextvorteil auf, den Cursor für Codebasen geschaffen hat. Ein Recruiting-Agent, der in einem ATS läuft und die realen Einstellungsmuster eines Teams lernt, ist ein grundlegend anderes Produkt als ein Chatbot, der Stellenbeschreibungen schreibt – genauso wie Cursor sich grundlegend davon unterscheidet, ChatGPT um Code zu bitten.
Was Unternehmenskäufer bei der Einführung von KI-Agenten für operative Prozesse tatsächlich bewerten, ist nicht, welches Modell darunter liegt. Es geht um Governance, Kontextkontrolle und darum, ob sich das Tool in bestehende Workflows einfügt, ohne Menschen zu zwingen, ihre Arbeitsweise zu ändern. Genau diese Kaufkriterien – dieselben, die Cursors Bottom-up-Adoption angetrieben haben – entscheiden darüber, welche KI-Agentenplattform in der operativen Praxis gewinnt.
Die Mathematik jenseits der Entwickler
Es gibt weltweit rund 30 Millionen Softwareentwickler. KI in ihren Workflow zu integrieren, ist auf Basis der Bewertung eines einzelnen Unternehmens inzwischen 60 Milliarden US-Dollar wert. Es gibt über 200 Millionen Wissensarbeiter in operativen Funktionen: Finanzen, HR, Einkauf, Kundensupport, Recht, Compliance. Die Modelle werden weiter günstiger und austauschbarer werden. Cursor hat bewiesen, dass sich der Wert in der Workflow-Ebene verankert. Das nächste Unternehmen, das dies für operative Prozesse beweist, braucht ebenfalls kein proprietäres Modell. Es wird tiefe Integrationen, Domänenkontext und das Vertrauen der Teams brauchen, die es jeden Tag nutzen.





