8 Min. Lesezeit
AI-Agent-Ausbreitung ist das neue Schatten-IT. Die meisten Unternehmen sind nicht darauf vorbereitet.

Vor einem Jahrzehnt war Shadow-IT das Problem, das der CIOs nachts wach hielt. Mitarbeiter nutzten eigenständig SaaS-Tools, teilten Dateien über unautorisierte Plattformen und führten gesamte Workflows außerhalb der Sichtweite der IT aus. Es dauerte Jahre und kostete Milliarden an Governance-Ausgaben, um dies unter Kontrolle zu bringen.
Jetzt zeigt sich dasselbe Muster, allerdings schneller, schwerer zu erkennen und erheblich gefährlicher. AI-Agent-Wildwuchs, bei dem Teams im gesamten Unternehmen autonome Agenten ohne zentralisierte Aufsicht einsetzen, wird zur entscheidenden Governance-Herausforderung des Jahres 2026.
Das Ausmaß ist bereits überwältigend. Laut dem Gravitee-Bericht zum Stand der AI-Agenten-Sicherheit 2026 sind mittlerweile über 3 Millionen AI-Agenten innerhalb von Unternehmen im Einsatz. Nur 47,1 % werden aktiv überwacht oder gesichert. So bleibt geschätzt 1,5 Millionen Agenten, die ohne Aufsicht laufen, auf sensible Daten zugreifen, Entscheidungen treffen und sich mit kritischen Systemen ohne Audit-Trail verbinden.
Dies ist kein hypothetisches Risiko. Es geschieht gerade jetzt.
Wie Agent-Wildwuchs geschieht
Das Muster ist vorhersehbar. Ein Marketingteam erstellt einen AI-Agenten zur Inhaltserstellung. Der Vertrieb nutzt einen zur Lead-Bewertung. Das Finanzwesen setzt auf automatisierte Rechnungsverarbeitung. HR erstellt einen Screening-Agenten. Jedes Team löst sein eigenes Problem. Jedes Tool funktioniert isoliert gut genug.
Aber niemand verfolgt, auf welche Daten diese Agenten zugreifen. Niemand hat nachverfolgt, mit welchen Systemen sie verbunden sind. Niemand überprüft ihre Ausgaben auf Genauigkeit, Verzerrung oder Compliance-Verstöße. Und niemand weiß genau, wie viele Agenten tatsächlich im gesamten Unternehmen laufen.
Microsofts Cyber Pulse-Bericht bestätigte, dass 80 % der Fortune 500-Unternehmen nun aktive AI-Agenten einsetzen, viele davon mit Low-Code- und No-Code-Tools erstellt, die es jeder Abteilung ermöglichen, problemlos einen Agenten ohne IT-Einbindung zu erstellen. Im selben Bericht gaben 29 % der Mitarbeiter zu, unautorisierte AI-Agenten bei der Arbeit zu nutzen.
Hier ist, was dies grundlegend von traditioneller Shadow-IT unterscheidet: SaaS-Tools speichern und zeigen Daten an. AI-Agenten handeln anhand dieser Daten. Ein unautorisierter SaaS-Tool, das ein Tabellenblatt leakt, ist schlecht. Ein unautorisierter AI-Agent, der Entscheidungen auf der Grundlage sensibler Kundendaten trifft, Kommunikationen sendet oder Aufzeichnungen modifiziert, ist um Größenordnungen schlimmer.
Die Zahlen hinter dem Risiko
Die Lücke zwischen Annahme und Governance ist der Ort, an dem sich Risiken konzentrieren.
Microsoft hat herausgefunden, dass nur 6 % der Unternehmen über "fortschrittliche" AI-Sicherheitsstrategien verfügen. Die verbleibenden 94 % betreiben Agenten mit grundlegenden oder gar keinen Governance-Rahmenwerken. Unter den Organisationen mit aktiven AI-Agenten-Einsätzen haben 88 % bestätigte oder vermutete Sicherheitsvorfälle gemeldet. Im Gesundheitswesen steigt diese Zahl auf 92,7 %.
Die finanzielle Belastung ist real. Durch Shadow-AI verursachte Verstöße kosten jetzt durchschnittlich 4,63 Millionen US-Dollar und machen 20 % aller Vorfälle von Datenverletzungen aus. Unternehmen verzeichnen durchschnittlich 223 Shadow-AI-Vorfälle pro Monat, eine Zahl, die sich von Jahr zu Jahr verdoppelt hat. Die führenden Quartil-Unternehmen melden monatlich über 2.100 Vorfälle.
Und es wird schlimmer: 45,6 % der Teams verlassen sich immer noch auf gemeinsam genutzte API-Schlüssel für die Agent-zu-Agent-Authentifizierung. Das bedeutet, dass ein einziger kompromittierter Schlüssel gleichzeitig den Zugang zu mehreren Agentensystemen freischalten kann. Nur 14,4 % der Organisationen haben volle IT- und Sicherheitsgenehmigung für ihre gesamte Agentenflotte.
Eine kürzliche Umfrage von Dataiku/Harris unter 600 CIOs ergab, dass 87 % sagen, AI-Agenten sind jetzt in kritische Systeme eingebettet, aber nur 25 % haben volle Sichtbarkeit in alle produktiven Agenten. Diese Lücke zwischen dem, was läuft, und dem, was regiert wird, ist der Ort, an dem die nächste Welle von Unternehmenssicherheitsvorfällen ihren Ursprung haben wird.
Warum traditionelle IT-Governance versagt
Die Enterprise-IT-Governance wurde für drei Dinge entwickelt: Kontrolle darüber, wer auf welche Daten zugreifen darf, Verwaltung, welche Software auf der Unternehmensinfrastruktur läuft, und Nachverfolgen, wie Informationen zwischen den Systemen fließen. AI-Agenten durchbrechen alle drei Annahmen.
Der Zugriffskontrolle versagt. Eine traditionelle Anwendung greift auf die Daten zu, auf die sie ausgelegt ist. Ein AI-Agent mit Zugang zur Wissensdatenbank des Unternehmens, dem E-Mail-System und CRM kann autonom entscheiden, Informationen aus jeder dieser Quellen abzurufen, um eine Aufgabe zu erledigen. Die tatsächliche Datenzugriffsoberfläche des Agenten ist breiter als die, die die IT bereitgestellt hat.
Infrastrukturg Grenzen verschwimmen. Ein AI-Agent kann externe APIs aufrufen, Daten durch Drittanbieter-Modelle verarbeiten und Zwischenergebnisse in temporären Caches speichern, die nicht im Dateninventar des Unternehmens erscheinen. Der operationelle Fußabdruck des Agenten erstreckt sich über die von der IT verwaltete Infrastruktur hinaus.
Informationsflüsse werden unvorhersehbar. Traditionelle Daten-Governance nimmt vorhersehbare, entworfene Datenflüsse an. AI-Agenten erzeugen neuartige. Ein Finanzagent könnte HR-Daten nutzen, um eine Budgetentscheidung zu kontextualisieren. Ein Vertriebsagent könnte Support-Ticket-Daten nutzen, um den Ansprechpartnern zu einem Anruf zu raten. Solche funktionsübergreifenden Datenflüsse geschehen, ohne dass sie jemand entwirft oder genehmigt.
Eine kürzliche Analyse von Security Boulevard beschrieb dies als "Zulassungsausweitung trifft Governance-Verschiebung." Rechte haben sich in Unternehmensumgebungen angesammelt, ohne überprüft zu werden, und AI-Agenten operieren jetzt in diesen unerforschten Rechtestrukturen. Die Kombination schafft blinde Flecken, die traditionelle Governance-Tools einfach nicht erkennen können.
Was AI-Agent-Governance wirklich erfordert
Die Unternehmen, die dies richtig machen, behandeln die Agenten-Governance als eigene Disziplin, die sich sowohl von der traditionellen IT-Governance als auch von grundlegenden AI-Ethik-Rahmenwerken unterscheidet. Microsofts Cyber Pulse-Bericht schlug ein Zero Trust-Framework für AI-Agenten vor, das sich auf fünf Fähigkeiten stützt.
1. Zentrales Agentenregister
Jeder Agent, der im Unternehmen läuft, wird registriert, katalogisiert und überwacht. Die IT weiß, wie viele Agenten aktiv sind, was jeder Agent tut, mit welchen Systemen er verbunden ist und wer dafür verantwortlich ist. Neue Agentenbereitstellungen durchlaufen einen Überprüfungsprozess. Keine wildwachsenden Agenten.
Nur 21,9 % der Organisationen behandeln AI-Agenten derzeit als unabhängige, identitätstragende Entitäten. Der Rest verwaltet Agenten wie Softwaretools, was den grundlegenden Unterschied übersieht: Agenten agieren autonom und benötigen eigene Zugriffskontrollen.
2. Identitätsbasierte Zugriffskontrollen
Jeder AI-Agent erhält eine eigene Identität mit spezifischen Zugriffsgenehmigungen, die auf seine Funktion abgestimmt sind. Ein Rekrutierungsagent greift auf das Bewerber-Tracking-System und die Bewerberdatenbank zu. Er greift nicht auf Finanzunterlagen oder Kundendaten zu. Der Zugriff wird auf Agentenebene gewährt, nicht vom bereitstellenden Benutzer geerbt.
3. Verhaltensüberwachung und Anomalieerkennung
Das Verhalten der Agenten wird in Echtzeit überwacht. Wenn ein Finanzagent plötzlich auf HR-Daten zugreift, wenn ein Support-Agent beginnt, Datenvolumen über normale Muster hinaus zu exfiltrieren, wenn ein Agent von seinem definierten Umfang abweicht, wird das System dies sofort anmerken.
4. Output-Auditierung und Qualitätskontrollen
Agentenausgaben werden protokolliert, überprüfbar und Qualitätsstandards unterworfen. Wenn ein Screening-Agent 95 % der Kandidaten ablehnt, löst das eine Überprüfung aus. Wenn ein Finanzagent eine Rechnung über einem bestimmten Schwellenwert verarbeitet, wird dies einer menschlichen Genehmigung zugewiesen. Die Organisation kann aufzeigen, welche Entscheidungen Agenten getroffen haben und warum.
5. Einheitliche Plattform-Strategie
Anstatt dass jede Abteilung ihre eigenen AI-Tools bereitstellt, standardisiert das Unternehmen auf eine AI-Agentenplattform, die integrierte Governance-, Überwachungs- und Zugriffskontrollen bietet. Dies ist dieselbe Strategie, die Shadow-IT gelöst hat: den Teams ein sanktioniertes, fähiges Tool zu geben, damit sie nicht außerhalb dessen agieren müssen.
Salesforce's Connectivity Benchmark Report unterstreicht, warum dies wichtig ist: 4 von 5 IT-Führern glauben, dass AI-Agenten-Proliferation ohne ordnungsgemäße Integration mehr Komplexität als Wertschöpfung bringen wird. Die durchschnittliche Organisation verwaltet 957 Anwendungen, aber nur 27 % sind verbunden. Das Hinzufügen nicht-geregelter AI-Agenten zu dieser fragmentierten Landschaft vervielfacht das Problem exponentiell.
Der regulatorische Druck nimmt zu
Wenn die Sicherheitsrisiken nicht genug Motivation sind, holen die Regulierungen auf.
Vier US-Bundesstaaten haben derzeit aktive AI-Gesetzgebung in ihren gesetzgebenden Kammern: Oregon, Utah, Virginia und Washington. Colorados AI Act, ursprünglich für den 1. Februar geplant, wurde auf den 30. Juni verschoben. Kaliforniens AI Safety Act (SB 243) trat am 1. Januar in Kraft. New Yorks SB S8420A verlangt nun von Werbetreibenden, synthetische Darsteller aufzuzeigen, wobei Bußgelder ab 1.000 US-Dollar pro Verstoß beginnen.
In Europa nähern sich die Compliance-Fristen des EU AI Acts, obwohl die Europäische Kommission plant, die Regeln für hochriskante AI-Systeme vom August 2026 bis Dezember 2027 zu verschieben. In der Zwischenzeit veröffentlichen branchenspezifische Regulierungsbehörden in den Bereichen Finanzdienstleistungen, Gesundheit und Beschäftigung AI-spezifische Richtlinien.
Unternehmen, die nachweisen können, dass sie geregelte, überprüfbare AI-Agenten-Bereitstellungen haben, werden sich in dieser Regulierungsumgebung zurechtfinden. Unternehmen mit unreguliertem Agentenwildwuchs werden sich Durchsetzungsmaßnahmen gegenübersehen, wenn etwas schiefgeht. Die Unternehmen, die vor der Durchsetzung der DSGVO ordnungsgemäße Daten-Governance implementiert haben, hatten einen erheblichen Vorteil. Dasselbe wird für AI-Agenten-Governance gelten, bevor die nächste Regulierungswelle in Kraft tritt.
Governance ist der Beschleuniger, nicht die Bremse
Es gibt ein hartnäckiges Missverständnis, dass Governance die AI-Akzeptanz verlangsamt. Die Daten sagen das Gegenteil.
Branchenspezifische Forschung zeigt, dass Unternehmen mit ordnungsgemäßen AI-Governance-Rahmenwerken 12-mal mehr AI-Projekte in die Umsetzung bringen als solche ohne. Governance verhindert nicht die Einführung. Sie verhindert die Misserfolge, Rückschläge und Vorfälle, die AI-Programme vollständig zum Stillstand bringen.
Die 73 % der CIOs, die AI-Anbieterentscheidungen bedauern, bedauern nicht, zu langsam gehandelt zu haben. Sie bedauern, gehandelt zu haben, ohne die Infrastruktur zu haben, um das, was sie bereitgestellt haben, zu regieren. Wenn 71 % dieser gleichen CIOs sagen, ihr AI-Budget würde gekürzt, wenn die ROI-Ziele bis Mitte 2026 nicht erreicht würden, war der Druck, die Governance richtig zu machen, noch nie höher.
Der Weg nach vorne besteht nicht darin, die Einführung von AI-Agenten einzuschränken. Es besteht darin, sie auf einer Plattform zu zentralisieren, die den Teams die benötigten Fähigkeiten mit der Governance gibt, die die Organisation erfordert. Die gleiche Antwort, die Shadow-IT gelöst hat, gilt für Agentenwildwuchs: etwas Besseres zu bieten als das, was die Teams selbst bauen würden, mit der Sichtbarkeit und den Kontrollen, die die Organisation verlangt.
Die Organisationen, die dies richtig machen, werden schneller mit AI-Agenten arbeiten, nicht langsamer. Die Organisationen, die den Agentenwildwuchs ignorieren, werden die Lektion auf die harte Tour lernen, außer diesmal treffen die Agenten Entscheidungen, nicht nur Dateien speichern.





