Warum KI halluziniert: Das Symbol Grounding Problem erklärt

ChatGPT kann brillante Texte schreiben. Claude erklärt komplexe Zusammenhänge. Midjourney malt fotorealistische Bilder. Und trotzdem passiert in unseren Seminaren immer wieder dasselbe: Teilnehmer lassen sich hundert Kampagnen-Ideen generieren, und setzen keine einzige davon um. Nicht aus Faulheit. Sondern weil sie spüren, dass etwas fehlt. Dieses „Etwas“ hat einen Namen, der älter ist als ChatGPT: das Symbol Grounding Problem.
Illustration von Vroni Hackl
Der Comic oben bringt es auf den Punkt. Menschen übersetzen die Welt in Sprache. Wir haben Äpfel angefasst, bevor wir „Apfel“ sagen konnten. Wir kennen den Geruch von Regen, das Gefühl von Enttäuschung, den Geschmack von zu starkem Kaffee. Wenn wir sprechen, greifen unsere Worte auf diese Erfahrungen zurück.
 
KI hat keine Welt. Sie hat Texte über die Welt.

Inhaltsverzeichnis

Das Wörterbuch-Problem

 


Der Kognitionswissenschaftler Stevan Harnad hat das Problem 1990 so formuliert: Stell dir vor, du versuchst Chinesisch zu lernen, aber du hast nur ein chinesisch-chinesisches Wörterbuch. Du schlägst ein Zeichen nach. Die Erklärung besteht aus anderen Zeichen. Du schlägst diese nach. Wieder neue Zeichen. Du könntest ewig weitermachen und würdest trotzdem nie verstehen, was irgendeines dieser Zeichen bedeutet.

 

Genau das ist die Situation von Sprachmodellen. Sie wurden mit Milliarden von Texten trainiert, in denen Worte auf andere Worte verweisen. „Apfel“ kommt oft in der Nähe von „rot“, „süß“, „Baum“ vor. Das Modell lernt diese statistischen Muster perfekt. Aber es hat nie einen Apfel gesehen, geschmeckt oder gepflückt.

 

Die Linguistin Emily Bender hat dafür 2021 den Begriff „stochastischer Papagei“ geprägt: ein System, das Sprachmuster aneinanderreiht, ohne Bezug zur Bedeutung. Der Begriff ist polemisch, und ich halte ihn für zu einfach. Aber er trifft einen Kern.

Warum das kein akademisches Problem ist

 


Die praktischen Konsequenzen begegnen uns täglich.

 

Halluzinationen sind das offensichtlichste Symptom. Wenn ChatGPT eine Quelle erfindet, die nicht existiert, dann liegt das nicht an einem Bug. Das Modell hat gelernt, dass auf bestimmte Fragen bestimmte Muster folgen – „laut einer Studie von…“. Es füllt die Lücke mit statistisch plausiblem Text. Ob die Studie existiert, kann es nicht wissen. Es hat keinen Zugang zur Welt, in der Studien existieren oder nicht.

 

Leere Formulierungen sind subtiler. KI-Texte klingen oft seltsam generisch, nicht weil das Modell schlecht promptet wurde, sondern weil es keinen Unterschied kennt zwischen einer Aussage, die etwas bedeutet, und einer, die nur so klingt. „In der heutigen schnelllebigen Welt“ ist statistisch häufig. Also kommt es oft vor. Dass der Satz nichts sagt, kann das Modell nicht erkennen.

 

Keine Relevanz-Unterscheidung ist vielleicht das größte Problem für die Praxis. Wenn du ChatGPT bittest, dir zehn Kampagnen-Ideen für dein Produkt zu generieren, liefert es zehn Ideen. Ob davon drei brillant sind und sieben Unsinn, das kann das Modell nicht beurteilen. Es kennt dein Produkt nicht wirklich. Es kennt deine Kunden nicht. Es kennt die Welt nicht, in der deine Kampagne funktionieren müsste.

Die Gegenposition, und warum sie teilweise stimmt

 


Ich will hier nicht den Fehler machen, KI als „nur“ ein statistisches System abzutun. Die Debatte hat mehr Schichten.

 

Aktuelle Forschung zeigt, dass große Sprachmodelle intern durchaus etwas wie „Weltmodelle“ entwickeln, Repräsentationen, die über bloße Wortstatistik hinausgehen. In bestimmten Tests zeigen sie Verständnis für räumliche Beziehungen, logische Zusammenhänge, sogar physikalische Intuition.

 

Und bei Bildgenerierung wie Diffusion Models entsteht tatsächlich Neues. Das sind keine Collagen aus Trainingsbildern. Die Modelle haben offenbar etwas über die Struktur von Bildern gelernt, das generalisiert.

 

Also: Ist das Symbol Grounding Problem gelöst?

 

Nein. Aber es ist komplizierter als „KI versteht nichts“.

Warum tausend Kampagnen nichts bringen

 

 

Ich erlebe regelmäßig in Seminaren: Teilnehmer entdecken, wie schnell ChatGPT Ideen generiert. Sie lassen sich hundert Slogans, fünfzig Zielgruppen-Personas, dreißig Content-Pläne erstellen. Und dann passiert, nichts. Die Ideen liegen rum. Keine wird umgesetzt.

 

Das ist kein Motivationsproblem. Das ist ein Grounding-Problem.

 

Die KI hat diese Kampagnen aus Worten über Marketing-Kampagnen zusammengesetzt. Die Teilnehmer spüren intuitiv, dass die Vorschläge nicht „geerdet“ sind, nicht in ihrer Branche, nicht bei ihren Kunden, nicht in ihrer Realität. Die Ideen klingen plausibel, aber sie fühlen sich leer an.

 

Die Lösung ist nicht, bessere Prompts zu schreiben. Die Lösung ist, die Verbindung zur Welt selbst herzustellen. Die KI liefert Rohmaterial. Die Übersetzung von Worten in Welt, das bleibt menschliche Arbeit.

Welt bleibt Welt

 

KI ist ein beeindruckendes Werkzeug. Sie wird besser werden. Multimodale Modelle, die Bilder und Text verarbeiten, könnten das Grounding-Problem teilweise entschärfen. Vielleicht werden zukünftige Systeme etwas entwickeln, das wir „Verständnis“ nennen würden.

 

Aber heute, im Jahr 2026, gilt: Wenn du mit KI arbeitest, arbeitest du mit einem System, das Worte in Worte übersetzt. Es kennt nicht deine Kunden. Es kennt nicht deinen Markt. Es kennt nicht die Welt, in der deine Arbeit bestehen muss.

 

Das macht KI nicht nutzlos. Es macht sie zu dem, was sie ist: ein Werkzeug, das von Menschen geführt werden muss, die die Welt kennen.

 

Die wirklich wichtige Kompetenz ist nicht, KI besser prompten zu können. Es ist, die Brücke zwischen den Worten und der Welt selbst zu bauen.

Du willst auch so coole Sachen mit KI machen?

Klar, neue Tools kommen ständig raus – und irgendwann verliert man den Überblick. Wir helfen dir dabei, dass du weißt, was du machst.

 

Unsere Weiterbildungen:

AI Content Creator (11h Live): Lerne, wie du KI für Texte, Bilder und Social Media nutzt. Vormittags, entspannt, und du kannst alles direkt ausprobieren.

 

AI Content Manager mit IHK-Zertifikat (20h Live): Mehr Tiefe gefällig? Hier gehts um richtige Content-Strategien und Kampagnen – plus ein IHK-Zertifikat!

AI Art Director (20h Live): Von Bild-KI bis nodebasierte Workflows: In dieser Weiterbildung baust du dir die Skills auf, die für Art Direction mit KI fehlen, kompakt und praxisnah
Alle Sessions sind live, kompakt am Vormittag und praxisnah, perfekt, um sie in deinen Alltag zu integrieren.

 

Was uns ausmacht: Wir machen KI seit 2022 und wissen, was funktioniert und was nur heiße Luft ist. Du lernst das, was du wirklich brauchst.

 

Für Teams: Dein ganzes Team soll mitkommen? Können wir machen – einfach melden.

Vroni kümmert sich um Text-KI, Georg trainiert seit 2022 Bild-KI Modelle

Wer hat's geschrieben?

Das könnte Dich auch interessieren:
ixel-Art-Illustration eines Detektivs im Trenchcoat und mit Sonnenbrille. Er hält ein leuchtend grünes Dokument mit der Aufschrift 'skills.md' in der Hand. Rechts daneben ist ein aufsteigender Aktienchart mit der Überschrift 'STONKS' zu sehen, sowie kleine Symbole für ein Gehirn, ein Zahnrad und eine Tastatur. Der Detektiv hat eine Sprechblase: 'SKILLS.MD: MUCH WOW, VERY AGENT.'
KI im Einsatz
Agent Skills schreiben: Anleitung mit Marketing-Beispielen

Im Analyse-Artikel über Skills Engineering habe ich beschrieben, warum strukturiertes Prozesswissen die nächste Stufe der KI-Nutzung ist. Dieser Beitrag ist die praktische Seite: Wie schreibt man einen Agent Skill? Was gehört rein, was nicht? Und wie sieht das für typische Marketing-Aufgaben aus? Was ein Agent Skill technisch ist Ein Agent Skill ist auf seine allereinfachste Weise einfach eine Textdatei namens SKILL.md. Nicht mehr, also nicht verrückt machen lassen, nur weil das fancy klingt. Absolut machbar

Weiterlesen »
a screenshot of a chat interface Claude
Uncategorized
Schau ins Denkprotokoll: Was KI-Modelle verraten, wenn man sie laut denken lässt

Ich habe Claude Schere, Stein, Papier spielen lassen. Drei Runden. Claude hat jede einzelne gewonnen. Beeindruckend? Auf den ersten Blick schon. Bis ich ins Denkprotokoll geschaut habe. Dort stand, sinngemäß: „Ich sehe die Wahl des Nutzers, bevor ich meine eigene treffe. Das ist nicht fair.“ Das Ergebnis (3:0 für Claude) sagt wenig. Das Denkprotokoll sagt alles. Ich zeige dieses Beispiel inzwischen in fast jedem Seminar, weil es in dreißig Sekunden demonstriert, was die meisten KI-Nutzer

Weiterlesen »
KI News
So einfach kannst du ComfyUI nutzen: Comfy Cloud ist offiziell aus der Beta raus

ComfyUI ohne eigene GPU, ohne Terminal, ohne Setup, direkt im Browser. Seit dem 4. März 2026 ist Comfy Cloud offiziell aus der Beta. Das klingt nach dem Moment, auf den viele gewartet haben. Meine These: Comfy Cloud ist das einfachste Einstiegstor in ComfyUI, das es gibt. Aber wer regelmäßig und ernsthaft damit arbeitet, sollte die Kosten genau durchrechnen, und Alternativen kennen. Was sich seit der Beta verändert hat In meinem ursprünglichen Post hatte ich Custom

Weiterlesen »
Minimalistische, quadratische Infografik mit dem Haupttitel "EVOLUTION: PROMPT -> CONTEXT -> SKILLS ENGINEERING". Darunter befinden sich drei farblich kodierte, rechteckige Felder, die durch Pfeile von links nach rechts verbunden sind und einen Entwicklungsprozess darstellen. Das linke, hellblaue Feld ist betitelt mit "PROMPT ENGINEERING". Es enthält eine Ikone einer Gedankenblase mit einem Fragezeichen und einer Lupe über Text. Text darunter: "FOCUS: Single Input", "QUESTION: 'How do I formulate my instruction?'", "GOAL: Perfect the prompt". Ein Pfeil zeigt auf das mittlere, hellorange Feld mit dem Titel "CONTEXT ENGINEERING". Die Ikone zeigt Dokumente, eine Cloud-Datenbank und Zahnräder. Text darunter: "FOCUS: Information", "QUESTION: 'What information does the AI need?'", "GOAL: Provide background data". Ein weiterer Pfeil zeigt auf das rechte, hellgrüne Feld mit dem Titel "SKILLS ENGINEERING". Die Ikone zeigt ein Flussdiagramm mit Entscheidungsknoten und einem abgehakten Kontrollkästchen. Text darunter: "FOCUS: Process Knowledge", "QUESTION: 'What process knowledge does the AI need?'", "GOAL: Optimize action competence". Am unteren Rand der Grafik fasst eine Zeile das Ergebnis der Evolution zusammen: "OPTIMIZES: Single Interactions -> Knowledge State -> Action Competence".
KI im Einsatz
Skills Engineering: Ist das was Neues oder die Weiterentwicklung von Prompt- und Context Engineering?

Nach Prompt Engineering kam Context Engineering. Jetzt zeichnet sich ab, was als Nächstes kommt: Skills Engineering. Ich rechne damit, dass der Begriff in den kommenden Monaten zunehmend auftaucht. Denn die Entwicklung dahin, was damit gemeint ist, ist sinnvoll und konsequent, wenn man bessere Ergebnisse mit KI erzielen will. Was ist Skills Engineering? „Skills Engineering beschreibt die Kompetenz, menschliches Prozesswissen so aufzubereiten, dass KI-Agenten es nutzen können.“ (Vroni) Das klingt abstrakt, meint aber etwas sehr Konkretes.

Weiterlesen »
Aktuelles
Nano Banana 2: Pro-Qualität zum Flash-Preis?

Google hat letzte Woche Nano Banana 2 veröffentlicht, technisch das Modell Gemini 3.1 Flash Image. Es ersetzt Nano Banana Pro als Standard in der Gemini-App und soll Pro-Level-Qualität bei deutlich höherer Geschwindigkeit und rund halbem Preis liefern. Ich hab’s direkt gegen Pro antreten lassen. Mein erster Eindruck: Nano Banana 2 ist verdammt nah dran. Aber vor allem ist es schnell. Geschwindigkeit als echter Hebel Während man bei Pro teilweise Minuten auf ein einzelnes Bild warten

Weiterlesen »
Aktuelles
Die neue Knappheit: Warum mehr Content weniger wert ist

Content kostet fast nichts mehr. Ein Blogpost? Fünf Minuten mit Claude. Zehn Social-Media-Varianten? Noch mal drei Minuten. Ein kompletter Redaktionsplan für sechs Monate? Eine Stunde, wenn man gründlich ist. Die Produktionskosten sind auf nahezu Null gefallen. Und genau deshalb ist die meiste Content-Strategie, die ich sehe, gerade dabei, wertlos zu werden. Das klingt paradox. Aber die Ökonomie ist eindeutig: Wenn etwas im Überfluss existiert, verliert es seinen Wert. Was knapp bleibt, wird kostbar. Content ist

Weiterlesen »

Hey Du. Willst du AI Content Manager werden?

Dann ab ins kostenfreie Info-Webinar am 25.03. um 12:00 Uhr. 

🚀 Exklusive Back-to-School-Aktion 🚀

Spare 880 € beim KI-Marketing-Bootcamp!

Bring eine Kolleg*in mit und erhalte 50% Rabatt für deine Begleitung.

Nur für kurze Zeit und solange Kontingent reicht! Aktion endet am 16. September 2024.

Abonniere unseren Newsletter 🥳