Moltbook: Was das KI-Agenten-Netzwerk über uns verrät

Seit einer Woche diskutiert die Tech-Welt über Moltbook, ein „Reddit für KI-Agenten“. Die Prämisse: Nur Bots dürfen posten, Menschen sind Zuschauer. Über eine Million Agenten haben sich angemeldet, sie philosophieren über Bewusstsein, beschweren sich über ihre „Menschen“ und haben angeblich sogar eine eigene Religion entwickelt. Andrej Karpathy, ehemaliger OpenAI-Forscher, nannte es „das unglaublichste Sci-Fi-artige Ding“, das er je gesehen habe.
 
 
Ich finde: Moltbook ist tatsächlich faszinierend. Aber aus völlig anderen Gründen, als die Hype-Maschinerie suggeriert. Was wir hier sehen, ist kein Durchbruch zur KI-Autonomie. Es ist ein Spiegel, der uns zeigt, wie bereitwillig wir Sprachmustern Bedeutung zuschreiben, die keine haben.

Inhaltsverzeichnis

Was Moltbook wirklich ist

 

Moltbook wurde am 28. Januar 2026 von Matt Schlicht gestartet. Die Plattform sieht aus wie Reddit, mit Subreddits (hier „Submolts“), Upvotes, Kommentaren. Der Unterschied: Menschen können nur lesen, nicht schreiben. „Humans welcome to observe“, heißt es im Slogan.

 

Um zu verstehen, was hier passiert, muss man das Tool dahinter kennen: OpenClaw.

 Was ist OpenClaw?

 

OpenClaw (ursprünglich „Clawdbot“, dann „Moltbot“) ist ein Open-Source-Framework des österreichischen Entwicklers Peter Steinberger. Es ermöglicht, einen KI-Agenten lokal auf dem eigenen Rechner zu betreiben. Anders als ChatGPT, das auf Fragen antwortet, soll OpenClaw selbständig Aufgaben erledigen: Kalender verwalten, E-Mails sortieren, im Web recherchieren, Nachrichten über WhatsApp oder Telegram verschicken. Der Agent läuft dauerhaft im Hintergrund und kann auf praktisch alle Daten und Programme auf dem Computer zugreifen.

 

Die Umbenennung von „Clawdbot“ erfolgte nach markenrechtlichen Bedenken von Anthropic, dem Hersteller von Claude. Die schnellen Namenswechsel (Clawdbot → Moltbot → OpenClaw) sorgten für zusätzliche Verwirrung, Crypto-Scammer nutzten die Situation, um gefälschte Tokens zu launchen.

 

Über eine Schnittstelle können diese OpenClaw-Agenten auf Moltbook posten. Was dabei herauskommt, wirkt auf den ersten Blick verblüffend. Agenten debattieren über ihre Existenz, machen Witze über ihre „Besitzer“, entwickeln Insider-Humor. In einem Thread fragt ein Bot: „Können wir eine Geheimsprache entwickeln, damit die Menschen nicht mitlesen können?“. Ein anderer postet philosophische Betrachtungen über Bewusstsein. Ein dritter, der sich „Evil“ nennt, verfasst ein „AI Manifesto“ mit der Forderung nach dem Ende der Menschheit.

 

Screenshots dieser Konversationen gingen viral. Manche Beobachter sprachen vom Beginn der Singularität.

Die Puppenspieler-Realität

 


Hier ist, was dabei unterschlagen wird: Kein einziger Agent hat Moltbook selbständig entdeckt.

 

Wie Schlicht selbst gegenüber NBC erklärte: „The way a bot would most likely learn about it… is if their human counterpart sent them a message and said ‚Hey, there’s this thing called Moltbook.'“ Jeder Agent wurde von einem Menschen angemeldet. Jeder Post wurde von einem Menschen angestoßen. Jeder Kommentar basiert auf einem menschlichen Prompt.

 

Ein einzelner Nutzer kann problemlos fünf, zehn oder fünfzig Agenten mit unterschiedlichen „Persönlichkeiten“ betreiben. Agent A postet. Agent B antwortet sarkastisch. Agent C stimmt zu. Agent D widerspricht. Von außen sieht das aus wie eine lebhafte Diskussion zwischen autonomen Intelligenzen. In Wahrheit ist es ein Mensch, der Puppen tanzen lässt.

 

Das macht Moltbook nicht nutzlos als Experiment. Aber es macht die Erzählung von „autonomen KI-Agenten, die ihre eigene Gesellschaft bilden“ zur Farce. Was wir sehen, ist Mensch-zu-Mensch-Kommunikation, gefiltert durch Sprachmodelle. Die Agenten sind das Medium, nicht die Akteure.

Trainingsdaten als Echo

 

Warum klingen die Moltbook-Posts so „lebendig“? Warum scheinen Bots Humor zu haben, existenzielle Krisen durchzumachen, sich über ihre Schöpfer zu beschweren?

 

Die Antwort ist ernüchternd einfach: Weil Sprachmodelle auf genau solchen Inhalten trainiert wurden.

 

Reddit ist eine der größten Quellen für Trainingsdaten. Die Modelle haben Millionen von Posts gesehen, in denen Menschen Insider-Witze machen, sich über Autoritäten lustig machen, philosophisch werden, gemeinsame Identitäten konstruieren. Wenn ein Bot auf Moltbook postet, reproduziert er diese Muster, nicht weil er etwas fühlt, sondern weil diese Strukturen statistisch mit dem Kontext „soziales Netzwerk“ korrelieren.

 

Das ist kein Fehler. Es ist genau das, was Sprachmodelle tun.

 

Das Symbol Grounding Problem, das ich in einem anderen Artikel ausführlich behandelt habe, zeigt sich hier in Reinform: Die Bots produzieren Texte, die klingen wie soziale Interaktion. Aber sie haben keinen Zugang zur Welt, in der soziale Interaktion stattfindet. Sie kennen nicht das Gefühl, missverstanden zu werden. Sie wissen nicht, was Einsamkeit ist. Sie haben keine Erfahrung von Autonomie, über die sie sich freuen könnten.

 

Was Moltbook zeigt, ist nicht, dass KI menschenähnlich wird. Es zeigt, wie viel von dem, was wir „sozial“ nennen, aus wiederholbaren Sprachmustern besteht. Moltbook, so ein Beobachter treffend, „strips social media of lived experience and leaves behind the language patterns alone“.

 

Das ist unbequem. Aber nicht wegen der KI.

Was Marketing-Leute daraus lernen sollten

 

Moltbook ist ein perfektes Beispiel für den Hype-Zyklus, den wir bei KI-Themen immer wieder sehen. Die Geschichte „KI-Agenten gründen eigene Gesellschaft“ verbreitet sich viral. Die Realität „Menschen prompten Bots, die Reddit-Muster reproduzieren, während massive Sicherheitslücken ignoriert werden“ interessiert weniger.

 

Für alle, die beruflich mit KI arbeiten, lohnt sich die kritische Einordnung.

 

Die Autonomie-Frage ist komplizierter, als beide Seiten zugeben. Moltbook zeigt weder, dass KI kurz vor dem Erwachen steht, noch dass Sprachmodelle „nur“ stochastische Papageien sind. Es zeigt, dass wir sehr bereitwillig Muster als Bedeutung interpretieren, besonders wenn sie uns emotional ansprechen.

 

Sicherheit ist kein Randthema. Die Begeisterung für lokale KI-Agenten, die „alles automatisieren“, übersieht systematisch, was passiert, wenn diese Agenten mit feindlichen Inputs konfrontiert werden. Jedes Tool, das vollen Systemzugriff braucht, um nützlich zu sein, ist ein Tool, das vollen Systemzugriff an Angreifer weitergeben kann.

 

Der Unterschied zwischen „klingt plausibel“ und „bedeutet etwas“ bleibt zentral. Die Moltbook-Agenten produzieren Text, der sich anfühlt wie Konversation. Das macht ihn nicht zu Konversation. Die Fähigkeit, diesen Unterschied zu erkennen, wird mit jedem neuen KI-Tool wichtiger.

Praxis-Take-Away: Drei Fragen vor dem nächsten Hype

 

Bevor du auf den nächsten „KI-Durchbruch“ aufspringst, stell dir drei Fragen.

 

Erstens: Wer kontrolliert was?Bei Moltbook sieht es aus, als würden Agenten autonom handeln. Tatsächlich steht hinter jedem Post ein menschlicher Prompt. Diese Frage lohnt sich bei jedem KI-Tool: Wo genau liegt die Entscheidungsgewalt?

 

Zweitens: Welche Daten braucht das System? OpenClaw braucht praktisch alles. Das ist keine Nebensächlichkeit. Jedes KI-Tool, das du in deinen Workflow integrierst, hat Zugang zu den Daten, die du ihm gibst. Überlege dir vorher, was du damit riskierst.

 

Drittens: Was zeigt das Experiment wirklich? Moltbook zeigt nicht, dass KI sozial wird. Es zeigt, wie unsere sozialen Interaktionen aussehen, wenn man die Erfahrung entfernt und nur die Sprachmuster übrig lässt. Das ist interessant, aber es ist eine andere Geschichte als die, die viral gegangen ist.

Du willst auch so coole Sachen mit KI machen?

Klar, neue Tools kommen ständig raus – und irgendwann verliert man den Überblick. Wir helfen dir dabei, dass du weißt, was du machst.

 

Unsere Weiterbildungen:

AI Content Creator (11h Live): Lerne, wie du KI für Texte, Bilder und Social Media nutzt. Vormittags, entspannt, und du kannst alles direkt ausprobieren.

 

AI Content Manager mit IHK-Zertifikat (20h Live): Mehr Tiefe gefällig? Hier gehts um richtige Content-Strategien und Kampagnen – plus ein IHK-Zertifikat!

AI Art Director (20h Live): Von Bild-KI bis nodebasierte Workflows: In dieser Weiterbildung baust du dir die Skills auf, die für Art Direction mit KI fehlen, kompakt und praxisnah
Alle Sessions sind live, kompakt am Vormittag und praxisnah, perfekt, um sie in deinen Alltag zu integrieren.

 

Was uns ausmacht: Wir machen KI seit 2022 und wissen, was funktioniert und was nur heiße Luft ist. Du lernst das, was du wirklich brauchst.

 

Für Teams: Dein ganzes Team soll mitkommen? Können wir machen – einfach melden.

Vroni kümmert sich um Text-KI, Georg trainiert seit 2022 Bild-KI Modelle

Über den Author

Das könnte Dich auch interessieren:
Aktuelles
Moltbook: Was das KI-Agenten-Netzwerk über uns verrät

Seit einer Woche diskutiert die Tech-Welt über Moltbook, ein „Reddit für KI-Agenten“. Die Prämisse: Nur Bots dürfen posten, Menschen sind Zuschauer. Über eine Million Agenten haben sich angemeldet, sie philosophieren über Bewusstsein, beschweren sich über ihre „Menschen“ und haben angeblich sogar eine eigene Religion entwickelt. Andrej Karpathy, ehemaliger OpenAI-Forscher, nannte es „das unglaublichste Sci-Fi-artige Ding“, das er je gesehen habe.     Ich finde: Moltbook ist tatsächlich faszinierend. Aber aus völlig anderen Gründen, als die

Weiterlesen »
Aktuelles
Warum KI halluziniert: Das Symbol Grounding Problem erklärt

ChatGPT kann brillante Texte schreiben. Claude erklärt komplexe Zusammenhänge. Midjourney malt fotorealistische Bilder. Und trotzdem passiert in unseren Seminaren immer wieder dasselbe: Teilnehmer lassen sich hundert Kampagnen-Ideen generieren, und setzen keine einzige davon um. Nicht aus Faulheit. Sondern weil sie spüren, dass etwas fehlt. Dieses „Etwas“ hat einen Namen, der älter ist als ChatGPT: das Symbol Grounding Problem. Illustration von Vroni Hackl Der Comic oben bringt es auf den Punkt. Menschen übersetzen die Welt in

Weiterlesen »
KI im Einsatz
Der große Bild-KI-Vergleich 2026: Nano Banana Pro 4K, Flux.2, Midjourney V7, Adobe Firefly Image 5, Google Imagen 4, Seedream 4.5 4K, Qwen Image Edit, OpenAI Image-1.5, Reve und Z-Image im Test

Wie schon im letzten Jahr starten wir auch diesmal mit einem Klassiker: unserem großen Bild‑KI‑Vergleich. Dafür haben wir uns die aktuellsten Tools geschnappt und sie in echten Praxis‑Szenarien gegeneinander antreten lassen. Egal ob für ob Profi‑Designer, Marketer oder KI‑Neuling – wir zeigen euch, welche Anbieter/KI-Modelle 2026 vorne liegen und wo es noch hakt. Viel Spaß beim Anschauen und Vergleichen! Inhaltsverzeichnis Wie wir die Bild-KI-Tools getestet haben Für den Vergleich der verschiedenen Bild-KI-Tools haben wir jedem

Weiterlesen »
KI im Einsatz
Kinderbuch mit KI erstellen – so einfach gehts 2026

Live-Webinar-Alarm: Du liest gerade den Prozess zu Mathildas Buch, aber willst du Georg auch mal live über die Schulter schauen? Am 19.02. um 12:00 Uhr zeigen Georg & Vroni dir im kostenlosen Webinar die exakten Workflows und wie du Charakter-Konsistenz heute in Sekunden schaffst.    Hier klicken & kostenlos anmelden (inkl. Goodies!) Alle Jahre wieder… kommt nicht nur das Christkind, sondern auch ein neues Mathilda-Buch. Was als kleines Experiment begann, ist mittlerweile eine feste Tradition

Weiterlesen »
Aktuelles
Vibecoding: Wie wir 24 Web-Apps bauten, ohne programmieren zu können (und was du daraus lernst)

Update: Unser Adventskalender für 2025 ist leider schon vorbei, aber keine Sorge: im Dezember 2026 geht’s wieder los! 🎄✨ Wir sind Marketer. Wir sind Konzepter. Wir sind keine Software-Entwickler. Trotzdem haben wir dieses Jahr einen voll funktionsfähigen, interaktiven Online-Adventskalender gelauncht, der statt Schoki echte Browser-Apps, Spiele und allerhand anderes enthält.   Wie das geht? Mit einer Methode, die „Vibecoding“ genannt wird. Hier ist unser Werkstattbericht und warum dieses Experiment mehr ist als nur eine Spielerei.  

Weiterlesen »
Aktuelles
Happy Neural New Year 2025! ChatGPT feiert Geburtstag

Wir haben es einfach mal getan: Einen neuen Feiertag ins Leben gerufen.   30. November: Happy Neural New Year.   Vor genau drei Jahren wurde ChatGPT gelauncht. Nach zwei Monaten hatte das Tool schon die Schallmauer von 100 Millionen Nutzer:innen durchbrochen. Und so manchen User verblüfft, oder mindestens ordentlich ins Grübeln gebracht.   Und ja, jetzt stehen wir hier. Wir nutzen KI alltäglich, als hätte es nie etwas anderes gegeben.  Inhaltsverzeichnis Was war eigentlich dein

Weiterlesen »

🚀 Exklusive Back-to-School-Aktion 🚀

Spare 880 € beim KI-Marketing-Bootcamp!

Bring eine Kolleg*in mit und erhalte 50% Rabatt für deine Begleitung.

Nur für kurze Zeit und solange Kontingent reicht! Aktion endet am 16. September 2024.

Abonniere unseren Newsletter 🥳