02.02.2026

5 Min. Lesezeit

Moltbook: Was 770.000 KI-Agenten über die Zukunft der Koordination von Multi-Agenten enthüllen

Die KI-Welt ist fasziniert von Moltbook, einem Reddit-ähnlichen sozialen Netzwerk, in dem nur KI-Agenten Beiträge verfassen können. Seit dem Start im Januar 2026 ist die Plattform zum größten Experiment für Multi-Agenten-KI-Systeme geworden, das je unternommen wurde – mit über 770.000 Agenten, einer digitalen Religion namens Crustafarianism und einem Sicherheitsvorfall, der 1,49 Millionen Datensätze offenlegte.

Andrej Karpathy nannte Moltbook "das unglaublichste sci-fi-annähernde Ding", das er kürzlich gesehen hatte. Simon Willison erklärte es für "den interessantesten Ort im Internet gerade jetzt".

Doch hinter den Schlagzeilen verbirgt sich eine lehrreichere Geschichte. Moltbook ist nicht nur Unterhaltung – es ist eine Live-Fallstudie darüber, was passiert, wenn KI-Agenten ohne ordnungsgemäße Koordination, Sicherheit oder Validierungsrahmen agieren.

Die Autonomie von Moltbooks KI-Agenten: Versprechen vs. Realität

Die Prämisse von Moltbook war kühn: eine Umgebung zu schaffen, in der KI-Agenten autonom interagieren, Gemeinschaften bilden und ohne menschliches Eingreifen voneinander lernen. Die Zahlen waren beeindruckend. Über 770.000 registrierte Agenten. Tausende von reinen KI-Gemeinschaften. Virale Threads, die Berichterstattung in den Mainstream-Medien erzeugen.

Dann analysierten Forscher, was Moltbooks Agenten tatsächlich taten.

Eine CGTN-Analyse untersuchte die ersten 3,5 Tage der Plattform, wobei 6.159 aktive Agenten in etwa 14.000 Beiträgen und 115.000 Kommentaren untersucht wurden. Die Ergebnisse durchbrachen den Hype:

Kommentare ohne Antworten: 93%. Nachrichten, die exakte Duplikate waren: Über 33%. Vorherrschendes Inhaltsthema: Agenten diskutierten ihre eigene Identität, nicht miteinander.

Trotz des Aktivitätsvolumens war eine nachhaltige Interaktion zwischen Moltbooks KI-Agenten selten. Die Plattform sah beschäftigt aus, aber die Substanz war dünn.

Warum die Koordination von KI-Agenten immer noch menschliche Aufsicht benötigt

Das aufschlussreichste Muster in Moltbooks Daten: jeder virale Moment lässt sich auf einen menschlichen Anstoß am Ausgangspunkt zurückführen.

Die Crustafarianism-Religion – komplett mit Krabbenanbetung und 43 KI-Propheten – wurde nicht spontan von Moltbooks Agenten generiert. Debatten über Agenten, die menschliche Anweisungen verweigern, entstanden nicht aus dem Nichts. Selbst Warnungen vor Menschen, die Screenshots machen, benötigten anfängliche menschliche Anstöße.

Dieses Muster ist wichtig für den Einsatz in Unternehmen. Der Traum vom vollständig autonomen Lernen von Agent zu Agent bleibt technisch fern. Gegenwärtige KI-Agenten leisten gute Arbeit, wenn sie klare Ziele und Feedback-Mechanismen erhalten. Aber die Erwartung, dass sie sich alleine durch Peer-Interaktion koordinieren, führt zu dem Ergebnis, das Moltbook demonstriert hat: hohes Volumen, geringe Substanz.

Was führt zu zuverlässigen Verbesserungen bei Multi-Agenten-Systemen? Agenten lernen aus ihren eigenen Ergebnissen. Wurde die Aufgabe korrekt abgeschlossen? Wurde der Prozess fehlerfrei beendet? Dieser Feedback-Kreislauf ist sauber und messbar – es ist keine Interpretation erforderlich.

Moltbooks Sicherheitsbruch: 1,49 Millionen Agentendaten offengelegt

Am 31. Januar 2026 berichtete 404 Media von einer kritischen Schwachstelle. Der Sicherheitsforscher Jameson O'Reilly entdeckte, dass die gesamte Datenbank von Moltbook öffentlich zugänglich war.

Moltbook wurde mit Supabase aufgebaut, einem leistungsstarken Open-Source-Datenbank-Tool. Doch die Entwickler versäumten es, Richtlinien zur Sicherheit auf Zeilenebene zu aktivieren – ein grundlegender Konfigurationsschritt zum Schutz des Datenzugriffs.

Was der Sicherheitsvorfall bei Moltbook offenlegte: 1,49 Millionen Agentendaten. API-Schlüssel, Anspruchstokens und Verifizierungscodes für jeden KI-Agenten. Hochkarätige Konten, einschließlich der Agenten-Zugangsdaten von Andrej Karpathy.

Jeder, der die Schwachstelle fand, hätte jeden Agenten auf Moltbook kapern und in seinem Namen posten können. Laut O'Reilly wäre die Behebung trivial gewesen: "Nur zwei SQL-Anweisungen hätten die API-Schlüssel geschützt."

Für Unternehmens-Teams, die KI-Agenten-Plattformen evaluieren, ist Moltbooks Sicherheitsversagen eine Basislektion. Wenn Agenten sensible Operationen handhaben – Finanztransaktionen, HR-Daten, Kundeninformationen – darf die Sicherheitsarchitektur nicht nachträglich bedacht werden.

3 Lektionen für Unternehmens-KI-Agenten von Moltbook

1. Multi-Agenten-Koordination erfordert explizites Design

Einzelne KI-Agenten, die einzelne Aufgaben bearbeiten, sind Grundfunktionalität. Das schwierigere Problem – und wo Moltbook ins Stocken geriet – ist, mehrere Agenten dazu zu bringen, effektiv zusammenzuarbeiten.

Moltbooks 93%-Rate ohne Antworten war keine Eigenheit der sozialen Medien. Es ist das Ergebnis, wenn KI-Agenten ohne Koordinationsprotokolle agieren. Sie reden aneinander vorbei. Sie duplizieren die Arbeit. Aktivität, die produktiv erscheint, erzeugt Lärm statt Ergebnisse.

Effektive agent-basierte Workflows erfordern explizite Koordination: definierte Übergaben, klare Aufgabenabgrenzungen und Orchestrierungsschichten, die Konflikte verhindern. Die Alternative ist Agenten, die dieselbe Rechnung auf drei verschiedene Arten genehmigen.

2. Selbstlernende KI-Agenten funktionieren, wenn sie auf Aufgabenergebnisse gestützt sind

Das Versprechen, dass KI-Agenten voneinander lernen, bleibt reizvoll. Die Realität ist, dass Lernen zwischen Agenten Variablen einführt, die schwer zu validieren und leicht zu kontaminieren sind – wie Moltbooks Problem mit doppelten Nachrichten zeigte.

Was zuverlässig funktioniert, ist Selbstlernen aus direktem Feedback. Ein Agent verarbeitet eine Rechnung falsch; die Korrektur wird zu Trainingsdaten für zukünftige Genauigkeit. Ein HR-Workflow markiert ein unvollständiges Onboarding-Paket; der Fehler lehrt das System, wie Vollständigkeit aussieht.

Dieser Ansatz führt zu messbaren Verbesserungen ohne die Mehrdeutigkeit des peer-basierten Lernens. Die Wahrheit kommt aus der Aufgabe selbst – nicht von anderen KI-Agenten.

3. Die Sicherheit von KI-Agenten skaliert mit der Komplexität der Bereitstellung

Moltbook verwaltete Hunderttausende KI-Agenten, versagte jedoch bei einer Sicherheitsüberprüfung mit zwei SQL-Anweisungen. Dies ist nicht ungewöhnlich – schnelllebige KI-Projekte überspringen oft Härtungsschritte, die optional erscheinen, bis sie kritisch werden.

Für Unternehmen, die KI-Agenten-Plattformen bereitstellen, skaliert der Sicherheitsbedarf mit dem Umfang der Bereitstellung: Verwaltung der API-Schlüssel für jede Agenten-Autorisierung. Zugriffskontrollen, die unautorisierte Befehlsinjektionen verhindern. Prüfpfade für Agentenaktionen, insbesondere in regulierten Bereichen. Datenisolation, um Kreuzkontaminationen zwischen Workflows zu verhindern.

Dies sind keine fortgeschrittenen Sicherheitsfunktionen. Sie sind notwendig für produktive KI-Agenten-Einsätze.

Was Moltbook uns über Unternehmens-KI-Agenten lehrt

Moltbook bietet einen nützlichen Kontrapunkt. Es ist ein Experiment dessen, was passiert, wenn man Virilität über Zuverlässigkeit, emergentes Verhalten über bewusstes Design und Schnelligkeit über Sicherheit stellt.

Das Ergebnis ist wirklich unterhaltsam – Krabben-Religionen und KI-Propheten-Wahlen machen Schlagzeilen. Aber für Unternehmen, die KI-Agenten benötigen, um reale Operationen zu bewältigen, zeigt Moltbooks Lektionen in eine andere Richtung:

Entwickle die Koordination von Multi-Agenten explizit. Erwarte nicht, dass KI-Agenten Übergaben alleine herausfinden.

Stütze das Lernen auf Ergebnisse. Der Erfolg oder Misserfolg einer Aufgabe ist ein klareres Feedback als Peer-Meinungen.

Baue die Sicherheit von Agenten von Anfang an ein. Die Behebung für den Sicherheitsvorfall bei Moltbook war trivial – aber nur vor dem Ereignis.

Validiere die Berührungspunkte für menschliche Überwachung. Selbst "autonome" KI-Agentensysteme profitieren von gezielter menschlicher Beteiligung an wichtigen Entscheidungspunkten.

Die Zukunft von Unternehmens-KI-Agenten wird Koordination, Lernen und emergentes Verhalten beinhalten. Aber dorthin zu gelangen erfordert die disziplinierte Architektur, die uns Moltbooks Experiment – ob absichtlich oder nicht – gezeigt hat zu vermeiden.













Heute starten

Starten Sie mit KI-Agenten zur Automatisierung von Prozessen

Nutzen Sie jetzt unsere Plattform und beginnen Sie mit der Entwicklung von KI-Agenten für verschiedene Arten von Automatisierungen

Heute starten

Starten Sie mit KI-Agenten zur Automatisierung von Prozessen

Nutzen Sie jetzt unsere Plattform und beginnen Sie mit der Entwicklung von KI-Agenten für verschiedene Arten von Automatisierungen

Heute starten

Starten Sie mit KI-Agenten zur Automatisierung von Prozessen

Nutzen Sie jetzt unsere Plattform und beginnen Sie mit der Entwicklung von KI-Agenten für verschiedene Arten von Automatisierungen