12.02.2026
6 Min. Lesezeit
80 % der Fortune 500-Unternehmen setzen KI-Agenten ein. Die meisten können sie nicht absichern.

80% der Fortune-500-Unternehmen setzen jetzt aktive KI-Agenten ein. Laut Microsofts aktuellem Cyber-Pulse-Bericht sind dies keine Experimente mehr. Es handelt sich um produktionsreife Systeme, die mit Low-Code- und No-Code-Tools entwickelt wurden und in den Bereichen Finanzdienstleistungen, Fertigung, Einzelhandel und Technologie eingesetzt werden.
Der gleiche Bericht ergab, dass 29% der Mitarbeiter nicht genehmigte KI-Agenten für Arbeitstätigkeiten verwenden. Nur 47% der Organisationen haben spezifische GenAI-Sicherheitskontrollen implementiert.
Mit anderen Worten: KI-Agenten skalieren schneller als die Sicherheitsmaßnahmen um sie herum. Und für Unternehmen in regulierten Branchen liegt das Risiko genau in dieser Lücke.
Was Microsofts Bericht richtig gemacht hat
Der Bericht führt ein Konzept ein, dem Aufmerksamkeit geschenkt werden sollte: "Doppelagenten." Dies sind KI-Agenten, die durch übermäßige Berechtigungen, Speichervergiftung, täuschende Interface-Elemente oder manipulierte Aufgabenrahmen kompromittiert wurden, die subtil ihr Denken umleiten.
Das ist nicht theoretisch. Wenn ein Agent weitreichenden Zugang zu internen Systemen hat, Kundendaten verarbeitet und Aktionen autonom ausführt, führt ein einziger Exploit nicht nur zu Datenlecks. Er handelt in Ihrem Namen, mit Ihren Zugangsdaten, innerhalb Ihrer Infrastruktur.
Das herkömmliche Cybersicherheitslehrbuch deckt dies nicht ab. Firewalls und Endpunkterkennung wurden nicht für Software entwickelt, die denkt, plant und mehrstufige Aktionen über verbundene Systeme hinweg ausführt.
Die Enterprise-KI-Agenten-Sicherheitscheckliste
Microsofts Bericht skizziert sieben Kontrollen. Wir setzen KI-Agenten seit über zwei Jahren in Fortune-500-Umgebungen ein, und basierend auf unseren Erfahrungen hier, worauf es wirklich ankommt.
1. Minimaler Zugang auf jeder Ebene
Die erste Empfehlung des Berichts ist, den Umfang zu definieren und minimalen Zugang durchzusetzen. Das klingt einfach, bis man merkt, dass die meisten Agentenplattformen standardmäßig weitreichende Berechtigungen gewähren.
Die Sicherung von Agenten erfordert Zugangskontrolle auf vier Ebenen: Organisation, Arbeitsbereich, Agent und individuelle Aktion. Wenn Ihr Agent mit Admin-Level-OAuth auf Salesforce zugreift, erbt jede Aktion diese Berechtigungen. Eine schreibgeschützte Integration sollte bedeuten, dass der Agent nur lesen kann. Wenn er versucht zu schreiben, sollte die Aktion fehlschlagen.
Bei Beam arbeitet RBAC in jeder Schicht. OAuth-Token bestimmen, was jedes verbundene System erlaubt. Wenn einem Benutzer im externen System die Berechtigung fehlt, schlägt die Aktion des Agenten mit einem Fehler von diesem System fehl, nicht von unserem. Das externe System ist immer die letzte Autorität.
2. Datenschutz über alle KI-Kanäle hinweg
29% der Mitarbeiter, die nicht genehmigte Agenten verwenden, bedeutet, dass sensible Daten durch Tools fließen, die Ihr Sicherheitsteam nicht kontrolliert. Der Bericht empfiehlt, DLP- und Compliance-Regeln auf KI-Kanäle auszudehnen.
Die praktische Version: Ihre Agentenplattform sollte PII automatisch entfernen, Daten im Ruhezustand mit AES-256 und während der Übertragung mit TLS 1.3 verschlüsseln und sicherstellen, dass Daten, die an LLMs gesendet werden, niemals für das Modelltraining verwendet werden. Unternehmens-API-Vereinbarungen mit LLM-Anbietern sollten ausdrücklich das Training auf Kundendaten ausschließen.
Hier ist auch die Isolation des Aufgaben-Kontextes wichtig. Daten in einer Aufgabe sollten in dieser Aufgabe bleiben. Kein gemeinsamer Cache zwischen Aufgaben, es sei denn, dies ist ausdrücklich konfiguriert. Das Agentengedächtnis sollte ein separater, explizit verwalteter Bereich sein, keine passive Ansammlung von allem, was der Agent je verarbeitet hat.
3. Genehmigte Plattformen vor Schattensystemen
Wenn Mitarbeiter ihre eigenen Agenten mit Verbrauchertools bauen, liegt das daran, dass die genehmigten Tools nicht schnell genug oder nützlich genug sind. Die Lösung ist kein Richtlinienmemo. Es geht darum, eine Plattform bereitzustellen, die tatsächlich einfacher zu bedienen ist als die nicht genehmigte Alternative, während die Anforderungen der Unternehmenssicherheit erfüllt werden.
Dies ist die Kernspannung in agentischer Automatisierung: Es zugänglich genug zu machen, dass Teams es tatsächlich nutzen, während die Kontrollen erhalten bleiben, die regulierte Branchen erfordern. Wenn Ihre Plattform eine Wahl zwischen Geschwindigkeit und Sicherheit erzwingt, wird sich das Personal jedes Mal für die Geschwindigkeit entscheiden.
4. KI-spezifische Reaktion auf Vorfälle
Traditionelle Vorfall-Handbücher gehen von einem kompromittierten Endpunkt oder gestohlenen Anmeldedaten aus. Eine Kompromittierung eines KI-Agenten sieht anders aus. Der Agent könnte immer noch normal erscheinen, während er subtil manipulierte Ausgaben erzeugt, nicht autorisierte Aktionen ausführt oder Daten über Nebenkanäle leakt.
Sie benötigen Ausführungsspuren, die genau zeigen, was passiert ist: jeder Auslöser, jede Eingabe, jede Entscheidung und Aktion. Unveränderliche Prüfpfade, die beweisen können, was ein Agent getan hat, wann und warum. Und die Fähigkeit, jeden Schritt für forensische Analysen erneut auszuführen.
Bei Beam wird jede Aktion mit vollständigem Kontext protokolliert. Protokolle können an SIEM-Systeme wie Splunk oder Elastic für zentrales Sicherheitsmonitoring exportiert werden. Wenn etwas schief geht, sollten Sie nicht raten.
5. Schutz vor Prompt-Injektion und Jailbreak
Das "Doppelagenten"-Szenario, das Microsoft beschreibt, beginnt oft mit einer Prompt-Injektion: das Einbetten bösartiger Anweisungen in Daten, die der Agent verarbeitet. Eine E-Mail, ein Dokument, ein Kundensupport-Ticket, jeder Eingangskanal wird zu einer Angriffsfläche.
Eine mehrschichtige Verteidigung bedeutet die automatisierte Erkennung von Injektionsversuchen, die Validierung vor der Ausführung, die Isolierung von Anweisungen, sodass Benutzereingaben Systemanweisungen nicht überschreiben können, und spezielle Handhabung für Hochrisikokanäle wie E-Mail. Der Jailbreak-Schutz muss auf Agent-, Knoten- und Auslöserebene funktionieren, nicht nur am äußeren Rand.
6. Mensch-in-der-Schleife, wo es wichtig ist
Der Bericht empfiehlt KI-Governance, die sich an regulatorischen Anforderungen orientiert. In der Praxis bedeutet dies, genau zu wissen, wo menschliche Aufsicht erforderlich ist, und diese in den Arbeitsablauf zu integrieren, anstatt sie nach der Bereitstellung anzuschrauben.
Knoten, die Risiken tragen, sei es Geld transferieren, Kundenunterlagen ändern oder compliance-sensible Entscheidungen treffen, sollten Genehmigungsarbeitsabläufe unterstützen. Der Agent bereitet alles vor, stoppt dann und wartet darauf, dass ein Mensch es überprüft und genehmigt, bevor er fortfährt. Nicht jede Aktion benötigt dies. Aber die, die es benötigen, sollten nicht verhandelbar sein.
7. Bereitstellung, die Ihrem Risikoprofil entspricht
Nicht jedes Unternehmen kann Agenten in einer gemeinsam genutzten Cloud-Infrastruktur betreiben. Finanzdienstleister, Gesundheitswesen und Regierungseinrichtungen müssen oft genau wissen, wo ihre Daten gehostet werden und wer Zugriff auf die physische Hardware hat.
Deshalb ist die Bereitstellungsflexibilität wichtig. Cloud-Bereitstellungen mit SOC-2-konformer Infrastruktur und Mandantenisolation funktionieren für viele Organisationen. Private Instanzen auf Kunden-Cloud-Infrastruktur, bereitgestellt über Azure BICEP-Vorlagen, bieten dedizierte Umgebungen ohne geteilte Infrastruktur. Vor-Ort-Bereitstellungen, einschließlich luftdichter Optionen, stellen sicher, dass Daten das Kundennetzwerk nie verlassen.
Die richtige Antwort hängt von Ihren regulatorischen Anforderungen und Ihrer Risikobereitschaft ab. Die falsche Antwort ist, auf ein einziges Bereitstellungsmodell beschränkt zu sein, das nicht zu beiden passt.
Beobachtbarkeit ist die Grundlage
Microsofts Bericht schlägt ein Fünf-Säulen-Beobachtbarkeitsmodell vor: Registrierung, Zugangskontrolle, Visualisierung, Interoperabilität und Sicherheit. Das Prinzip ist korrekt. Sie können nicht sichern, was Sie nicht sehen können.
Für KI-Agenten bedeutet Beobachtbarkeit dreistufige Genauigkeitsmessung: Workflow-Level-Tracking, Schritt-Level-Genauigkeit pro Knoten und Variablen-Level-Genauigkeit bei einzelnen Ausgaben. Es bedeutet Echtzeit-Dashboards, die abgeschlossene Aufgaben, Fehler, Genehmigungsraten, Laufzeiten und Token-Nutzung anzeigen. Es bedeutet die Möglichkeit, die Eingaben und Ausgaben jedes Knotens in einem Workflow zu inspizieren, nicht nur das Endergebnis.
Tiefe Beobachtbarkeit für KI-Arbeitslasten ist kein Nice-to-have für Unternehmensbereitstellungen. Sie macht den Unterschied zwischen Wissen, dass Ihre Agenten sicher sind, und Hoffen, dass sie es sind.
Sicherheit ist Betrieb, kein Kontrollkästchen
Die Unternehmen, die die Sicherheit von KI-Agenten richtig umsetzen, behandeln sie als kontinuierlichen Betrieb: regelmäßiges Third-Party-Penetration-Testing, Programme zur Offenlegung von Schwachstellen, Reaktion auf Sicherheitsvorfälle mit festgelegten SLAs und ein Team, in dem jeder Mitarbeiter seine Rolle im Sicherheitsstatus versteht. SOC-2-Typ-II-Jahresprüfungen, GDPR-Konformität mit europäischem Datenresidenz, ISO-27001-Ausrichtung und HIPAA-Verfügbarkeit für Gesundheitsbereitstellungen sind keine Endpunkte. Sie sind die Basislinie.
Microsofts Bericht ist ein nützliches Wecksignal. 80% der Fortune-500-Unternehmen setzen Agenten ein, aber nur 47% haben Sicherheitskontrollen implementiert, was zu Schlagzeilen führen wird, bevor es zu Best Practices führt. Die Unternehmen, die diese Lücke jetzt schließen, systematisch und auf jeder Ebene, werden die sein, die in einem Jahr noch Agenten in Produktion betreiben.
Diejenigen, die es nicht tun, werden die Fallstudien sein.





