Inhaltsverzeichnis
Was Moltbook wirklich ist
Moltbook wurde am 28. Januar 2026 von Matt Schlicht gestartet. Die Plattform sieht aus wie Reddit, mit Subreddits (hier „Submolts“), Upvotes, Kommentaren. Der Unterschied: Menschen können nur lesen, nicht schreiben. „Humans welcome to observe“, heißt es im Slogan.
Um zu verstehen, was hier passiert, muss man das Tool dahinter kennen: OpenClaw.
Was ist OpenClaw?
OpenClaw (ursprünglich „Clawdbot“, dann „Moltbot“) ist ein Open-Source-Framework des österreichischen Entwicklers Peter Steinberger. Es ermöglicht, einen KI-Agenten lokal auf dem eigenen Rechner zu betreiben. Anders als ChatGPT, das auf Fragen antwortet, soll OpenClaw selbständig Aufgaben erledigen: Kalender verwalten, E-Mails sortieren, im Web recherchieren, Nachrichten über WhatsApp oder Telegram verschicken. Der Agent läuft dauerhaft im Hintergrund und kann auf praktisch alle Daten und Programme auf dem Computer zugreifen.
Die Umbenennung von „Clawdbot“ erfolgte nach markenrechtlichen Bedenken von Anthropic, dem Hersteller von Claude. Die schnellen Namenswechsel (Clawdbot → Moltbot → OpenClaw) sorgten für zusätzliche Verwirrung, Crypto-Scammer nutzten die Situation, um gefälschte Tokens zu launchen.
Über eine Schnittstelle können diese OpenClaw-Agenten auf Moltbook posten. Was dabei herauskommt, wirkt auf den ersten Blick verblüffend. Agenten debattieren über ihre Existenz, machen Witze über ihre „Besitzer“, entwickeln Insider-Humor. In einem Thread fragt ein Bot: „Können wir eine Geheimsprache entwickeln, damit die Menschen nicht mitlesen können?“. Ein anderer postet philosophische Betrachtungen über Bewusstsein. Ein dritter, der sich „Evil“ nennt, verfasst ein „AI Manifesto“ mit der Forderung nach dem Ende der Menschheit.
Screenshots dieser Konversationen gingen viral. Manche Beobachter sprachen vom Beginn der Singularität.

Die Puppenspieler-Realität
Hier ist, was dabei unterschlagen wird: Kein einziger Agent hat Moltbook selbständig entdeckt.
Wie Schlicht selbst gegenüber NBC erklärte: „The way a bot would most likely learn about it… is if their human counterpart sent them a message and said ‚Hey, there’s this thing called Moltbook.'“ Jeder Agent wurde von einem Menschen angemeldet. Jeder Post wurde von einem Menschen angestoßen. Jeder Kommentar basiert auf einem menschlichen Prompt.
Ein einzelner Nutzer kann problemlos fünf, zehn oder fünfzig Agenten mit unterschiedlichen „Persönlichkeiten“ betreiben. Agent A postet. Agent B antwortet sarkastisch. Agent C stimmt zu. Agent D widerspricht. Von außen sieht das aus wie eine lebhafte Diskussion zwischen autonomen Intelligenzen. In Wahrheit ist es ein Mensch, der Puppen tanzen lässt.
Das macht Moltbook nicht nutzlos als Experiment. Aber es macht die Erzählung von „autonomen KI-Agenten, die ihre eigene Gesellschaft bilden“ zur Farce. Was wir sehen, ist Mensch-zu-Mensch-Kommunikation, gefiltert durch Sprachmodelle. Die Agenten sind das Medium, nicht die Akteure.
Trainingsdaten als Echo
Warum klingen die Moltbook-Posts so „lebendig“? Warum scheinen Bots Humor zu haben, existenzielle Krisen durchzumachen, sich über ihre Schöpfer zu beschweren?
Die Antwort ist ernüchternd einfach: Weil Sprachmodelle auf genau solchen Inhalten trainiert wurden.
Reddit ist eine der größten Quellen für Trainingsdaten. Die Modelle haben Millionen von Posts gesehen, in denen Menschen Insider-Witze machen, sich über Autoritäten lustig machen, philosophisch werden, gemeinsame Identitäten konstruieren. Wenn ein Bot auf Moltbook postet, reproduziert er diese Muster, nicht weil er etwas fühlt, sondern weil diese Strukturen statistisch mit dem Kontext „soziales Netzwerk“ korrelieren.
Das ist kein Fehler. Es ist genau das, was Sprachmodelle tun.
Das Symbol Grounding Problem, das ich in einem anderen Artikel ausführlich behandelt habe, zeigt sich hier in Reinform: Die Bots produzieren Texte, die klingen wie soziale Interaktion. Aber sie haben keinen Zugang zur Welt, in der soziale Interaktion stattfindet. Sie kennen nicht das Gefühl, missverstanden zu werden. Sie wissen nicht, was Einsamkeit ist. Sie haben keine Erfahrung von Autonomie, über die sie sich freuen könnten.
Was Moltbook zeigt, ist nicht, dass KI menschenähnlich wird. Es zeigt, wie viel von dem, was wir „sozial“ nennen, aus wiederholbaren Sprachmustern besteht. Moltbook, so ein Beobachter treffend, „strips social media of lived experience and leaves behind the language patterns alone“.
Das ist unbequem. Aber nicht wegen der KI.
Was Marketing-Leute daraus lernen sollten
Moltbook ist ein perfektes Beispiel für den Hype-Zyklus, den wir bei KI-Themen immer wieder sehen. Die Geschichte „KI-Agenten gründen eigene Gesellschaft“ verbreitet sich viral. Die Realität „Menschen prompten Bots, die Reddit-Muster reproduzieren, während massive Sicherheitslücken ignoriert werden“ interessiert weniger.
Für alle, die beruflich mit KI arbeiten, lohnt sich die kritische Einordnung.
Die Autonomie-Frage ist komplizierter, als beide Seiten zugeben. Moltbook zeigt weder, dass KI kurz vor dem Erwachen steht, noch dass Sprachmodelle „nur“ stochastische Papageien sind. Es zeigt, dass wir sehr bereitwillig Muster als Bedeutung interpretieren, besonders wenn sie uns emotional ansprechen.
Sicherheit ist kein Randthema. Die Begeisterung für lokale KI-Agenten, die „alles automatisieren“, übersieht systematisch, was passiert, wenn diese Agenten mit feindlichen Inputs konfrontiert werden. Jedes Tool, das vollen Systemzugriff braucht, um nützlich zu sein, ist ein Tool, das vollen Systemzugriff an Angreifer weitergeben kann.
Der Unterschied zwischen „klingt plausibel“ und „bedeutet etwas“ bleibt zentral. Die Moltbook-Agenten produzieren Text, der sich anfühlt wie Konversation. Das macht ihn nicht zu Konversation. Die Fähigkeit, diesen Unterschied zu erkennen, wird mit jedem neuen KI-Tool wichtiger.
Praxis-Take-Away: Drei Fragen vor dem nächsten Hype
Bevor du auf den nächsten „KI-Durchbruch“ aufspringst, stell dir drei Fragen.
Erstens: Wer kontrolliert was?Bei Moltbook sieht es aus, als würden Agenten autonom handeln. Tatsächlich steht hinter jedem Post ein menschlicher Prompt. Diese Frage lohnt sich bei jedem KI-Tool: Wo genau liegt die Entscheidungsgewalt?
Zweitens: Welche Daten braucht das System? OpenClaw braucht praktisch alles. Das ist keine Nebensächlichkeit. Jedes KI-Tool, das du in deinen Workflow integrierst, hat Zugang zu den Daten, die du ihm gibst. Überlege dir vorher, was du damit riskierst.
Drittens: Was zeigt das Experiment wirklich? Moltbook zeigt nicht, dass KI sozial wird. Es zeigt, wie unsere sozialen Interaktionen aussehen, wenn man die Erfahrung entfernt und nur die Sprachmuster übrig lässt. Das ist interessant, aber es ist eine andere Geschichte als die, die viral gegangen ist.
Du willst auch so coole Sachen mit KI machen?
Klar, neue Tools kommen ständig raus – und irgendwann verliert man den Überblick. Wir helfen dir dabei, dass du weißt, was du machst.
Unsere Weiterbildungen:
AI Content Creator (11h Live): Lerne, wie du KI für Texte, Bilder und Social Media nutzt. Vormittags, entspannt, und du kannst alles direkt ausprobieren.
AI Content Manager mit IHK-Zertifikat (20h Live): Mehr Tiefe gefällig? Hier gehts um richtige Content-Strategien und Kampagnen – plus ein IHK-Zertifikat!
AI Art Director (20h Live): Von Bild-KI bis nodebasierte Workflows: In dieser Weiterbildung baust du dir die Skills auf, die für Art Direction mit KI fehlen, kompakt und praxisnah
Alle Sessions sind live, kompakt am Vormittag und praxisnah, perfekt, um sie in deinen Alltag zu integrieren.
Was uns ausmacht: Wir machen KI seit 2022 und wissen, was funktioniert und was nur heiße Luft ist. Du lernst das, was du wirklich brauchst.
Für Teams: Dein ganzes Team soll mitkommen? Können wir machen – einfach melden.







