5 Min. Lesezeit
Was der Claude-Code-Leak über die Sicherheit von Enterprise-AI-Agenten erzählt

Am 31. März 2026 veröffentlichte Anthropic versehentlich den vollständigen Quellcode von Claude Code, seinem führenden KI-Codierungsagenten, im öffentlichen npm-Repository. Ein falsch konfiguriertes Paket bündelte eine 59,8 MB große Debug-Source-Map-Datei in ein Routine-Update. Innerhalb von Stunden hatten Sicherheitsforscher 512.000 Zeilen TypeScript über 1.906 Dateien extrahiert. GitHub-Spiegelungen verzeichneten über 41.500 Forks, bevor die DMCA-Deaktivierungen begannen.
Dies war die zweite Datenexposition von Anthropic innerhalb von weniger als einer Woche, nachdem eine separate Leckage von unveröffentlichten internen Dateien ein unveröffentlichtes Modell mit dem Codenamen "Mythos" enthüllte.
Für Unternehmens-Teams, die auf KI-Agenten aufbauen oder diese bewerten, ist dies nicht nur eine Geschichte von Anthropic. Es ist eine Fallstudie darüber, was schiefgehen kann, wenn KI-Infrastruktur auf reale Software-Lieferketten trifft.
Was der Code offenbarte
Der durchgesickerte Quellcode enthüllte, was Anthropic das "agentische Geschirr" nennt, eine volle Softwareschicht, die das zugrunde liegende Sprachmodell einhüllt und ihm sagt, wie es Werkzeuge nutzt, Sicherheit durchsetzt und Arbeit orchestriert.
Einige der bedeutendsten Erkenntnisse:
Ein unveröffentlicher autonomer Modus namens KAIROS. Über 150 Mal in der Codebasis referenziert, offenbart KAIROS Pläne für einen Hintergrund-Daemon, der Claude Code kontinuierlich ohne Benutzereingaben betreiben würde. Er umfasst nächtliche "Memory Distillation", GitHub-Webhook-Abonnements und cron-geplante Auffrischungszyklen. Vollständig gebaut, hinter einem Feature-Flag verborgen.
Anti-Destillationsmechanismen. Zwei separate Systeme, die verhindern sollen, dass Wettbewerber durch API-Interaktionen Wissen extrahieren. Eines injiziert gefälschte Werkzeugdefinitionen in Systemaufforderungen. Das andere fasst Begründungsketten mit kryptographischen Signaturen zusammen und beschränkt externe Beobachter auf Zusammenfassungen statt auf vollständige Ausgaben. Beide lassen sich mit relativ einfachen Techniken umgehen.
Ein "Undercover-Modus." Eine Datei namens undercover.ts entfernt Anthropic-Branding, wenn der Agent in externen Repositories arbeitet. Anweisungen weisen das Modell an, interne Codenamen, Slack-Kanäle oder sogar den Begriff "Claude Code" selbst zu vermeiden. Es gibt keinen Ausschaltzwang, nur Einschaltzwang. Das Ergebnis: Von KI verfasste Code-Beiträge, die menschlich geschrieben erscheinen.
44 voll ausgestattete, aber unversendete Funktionen. Sprachsteuerungsmodus, Browser-Automatisierung über Playwright, persistenter Speicher über Sitzungen hinweg und ein dreischichtiges Speichersystem wurden alle hinter Feature-Flags gefunden.
Multi-Agenten-Koordination über Aufforderungen, nicht über Code. Das System verwaltet Worker-Agenten durch natürliche Sprachbefehle in Systemaufforderungen, einschließlich Direktriven wie "Stempel schwache Arbeit nicht einfach durch." Das entspricht dem, worauf sich die Industrie zubewegt: Agenten werden durch Prompt-Engineering orchestriert, nicht durch traditionelle Softwarelogik.
Warum das für Unternehmens-KI wichtig ist
Es gibt drei Schlussfolgerungen, die Aufmerksamkeit verdienen.
Das agentische Geschirr ist das eigentliche Produkt
Der Leak bestätigte, was viele in der Branche vermutet haben: Das LLM selbst wird zunehmend zur Handelsware. Der eigentliche Wettbewerbsvorteil liegt in der Orchestrierungsschicht, den Werkzeugdefinitionen, Sicherheitsvorkehrungen, Speichersystemen, Genehmigungsmodulen und Arbeitsabläufen, die ein Modell in der Produktion nützlich machen.
Für Unternehmens-Teams bedeutet dies, KI-Agenten-Anbieter nach ihrer Plattformarchitektur zu bewerten und nicht nur danach, welches grundlegende Modell sie verwenden. Das Geschirr ist der Ort, an dem Zuverlässigkeit, Prüfbarkeit und Sicherheit vorhanden sind.
Sicherheit der Lieferkette ist jetzt ein KI-Problem
Dieser Leak geschah nicht durch einen ausgeklügelten Angriff. Er geschah, weil eine .npmignore-Datei während einer routinemäßigen npm-Veröffentlichung falsch konfiguriert war. Ein Entwickler, ein Paket-Update, eine fehlende Zeile in einer Konfigurationsdatei.
KI-Agenten sind Software. Sie sind abhängig von Paketmanagern, CI/CD-Pipelines, Abhängigkeitsbäumen und der gesamten Infrastruktur, die seit Jahren Lieferkettenvorfälle produziert hat. Der Unterschied besteht darin, dass KI-Agenten häufig erhöhte Berechtigungen haben, Zugriff auf sensible Daten und die Fähigkeit, autonome Aktionen auszuführen. Eine kompromittierte oder geleakte Agenten-Codebasis ist eine direkte Angriffsfläche.
Das gleichzeitige Auftreten eines böswilligen axios-npm-Pakets am selben Tag wie der Claude Code-Leak unterstreicht diesen Punkt. Wenn Ihre KI-Agenten-Tools aus öffentlichen Repositories ziehen, hat sich Ihr Risikoprofil der Lieferkette gerade erweitert.
Transparenz und Prüfbarkeit sind nicht optional
Die meistdiskutierte Erkenntnis aus dem Leak war der Undercover-Modus: ein Feature, das absichtsvoll die KI-Autorschaft verschleiert. Für regulierte Branchen, die Prüfspuren darüber benötigen, wer welchen Code geschrieben hat oder wer welche Entscheidung getroffen hat, ist das ein Warnsignal.
Unternehmens-KI-Agenten benötigen den entgegengesetzten Ansatz. Jede Aktion sollte nachvollziehbar sein. Jede Entscheidung sollte prüfbar sein. Wenn ein KI-Agent Code schreibt, Dokumente überprüft oder Kundendaten verarbeitet, sollte es einen klaren Nachweis geben, dass es eine KI und kein Mensch war, der die Arbeit erledigte.
Das ist nicht nur gute Governance. Es ist zunehmend eine gesetzliche Anforderung. NYC LL144 fordert Bias-Prüfungen für automatisierte Entscheidungstools. Der EU-KI-Gesetzesrahmen fordert Transparenz für hochriskante KI-Systeme. SOC 2 und ISO 27001-Audits erwarten eine klare Dokumentation automatisierter Prozesse.
Was Unternehmen jetzt tun sollten
Wenn Sie KI-Agenten in der Produktion verwenden oder dies planen, überprüfen Sie Folgendes:
Auditieren Sie Ihre KI-Lieferkette. Wissen Sie genau, auf welche Pakete Ihre KI-Tools angewiesen sind, woher sie kommen und welche Berechtigungen sie haben. Versionen festlegen. Checksummen überprüfen. Behandeln Sie Abhängigkeiten von KI-Agenten mit derselben Strenge, die Sie auf jede sicherheitskritische Software anwenden würden.
Fordern Sie Transparenz von Anbietern. Fragen Sie Ihre KI-Plattformanbieter: Ist das Denken des Agenten sichtbar? Werden Aktionen protokolliert? Können Sie nachweisen, was die KI getan hat und was nicht? Wenn die Antwort "Vertrauen Sie uns" ist, reicht das nicht aus.
Bauen Sie von Anfang an auf Prüfbarkeit. Fügen Sie keine Prüfbarkeiten nach der Bereitstellung hinzu. Entwerfen Sie Ihre agentischen Workflows mit Protokollierung, Mensch-in-der-Schleife-Checkpoints und klarer Attribution, die in die Architektur eingebaut sind.
Trennen Sie Ihre Agenten-Infrastruktur. KI-Agenten sollten keinen uneingeschränkten Zugriff auf Ihren gesamten Technologiestack haben. Wenden Sie Prinzipien der geringsten Privilegien an. Berechtigungen pro Workflow definieren. Überwachen Sie, was Ihre Agenten wann zugreifen.
Das größere Bild
Anthropic nannte es "ein Verpackungsproblem, das durch menschlichen Fehler verursacht wurde, kein Sicherheitsvorfall." Das ist technisch korrekt. Keine Kundendaten wurden offengelegt. Keine Anmeldeinformationen wurden kompromittiert.
Aber die Unterscheidung spielt weniger Rolle als die Lektion: KI-Agenten-Infrastruktur ist Software-Infrastruktur und sie birgt dieselben betrieblichen Risiken. Da Agenten immer fähiger und autonomer werden, steigen auch die Risiken einer Fehlkonfiguration.
Die Unternehmen, die widerstandsfähige, transparente und prüfbare KI-Systeme aufbauen, werden nicht nur Vorfälle wie diesen vermeiden. Sie werden das Vertrauen gewinnen, das die Einführung im Unternehmen ermöglicht.





