Nudging ist eines dieser Konzepte, die so elegant klingen, dass man sie sofort auf alles anwenden will. Ein kleiner Stupser in die richtige Richtung, eine geschickte Voreinstellung, eine kaum merkliche Veränderung der Umgebung, und schon verhalten sich Menschen besser. Funktioniert in Kantinen, beim Organspende-Register, bei Cookie-Bannern. Warum nicht auch beim Lernen mit KI?
Ich höre die Idee regelmäßig in Seminaren, besonders von Führungskräften: „Können wir nicht einfach ein paar Nudges einbauen? Ein Pop-up, das fragt: Hast du den Output geprüft? Ein Hinweis vor dem Absenden?“ Die Hoffnung dahinter ist verständlich. Wenn ein sanfter Stupser reicht, spart man sich die aufwändige Schulung. Schön wär’s, oder?
Was Nudging kann und was nicht
Nudging ist ein Begriff aus der Verhaltensökonomie. Die Grundidee: Menschen treffen Entscheidungen nicht rational, sondern kontextabhängig. Wer den Kontext klug gestaltet, die sogenannte Choice Architecture, kann Verhalten beeinflussen, ohne Optionen einzuschränken.
Das funktioniert hervorragend bei Entscheidungen, die einfach und einmalig sind. Die Kantine stellt den Salat nach vorn, die Leute greifen häufiger zu. Die Standardoption beim Rentenvertrag ist „Einzahlung“, nicht „Abwahl“, und die Sparquote steigt. Solche Nudges setzen auf das, was Kahneman „System 1“ nennt: schnelles, automatisches Denken. Sie nutzen Trägheit, Gewohnheit, den Weg des geringsten Widerstands.
Beim Lernen mit KI ist die Situation grundlegend anders. Das Problem ist nicht, dass Menschen die falsche von zwei Optionen wählen. Das Problem ist, dass sie gar nicht merken, dass es eine Entscheidung gibt. Wenn ChatGPT einen überzeugend formulierten Text liefert, fühlt sich das nicht an wie eine Gabelung, an der man links oder rechts gehen könnte. Es fühlt sich an wie eine Antwort. Und gegen Antworten, die plausibel klingen, helfen keine Salatbar-Strategien.
Metakognitive Faulheit: Das eigentliche Problem
Fan und Kollegen von der Peking University und Monash haben 2024 im British Journal of Educational Technology einen Begriff geprägt, der das Kernproblem trifft: „Metacognitive Laziness“, metakognitive Faulheit. In einem randomisierten Experiment verglichen sie Lernende, die mit ChatGPT, mit menschlichen Experten, mit Checklisten-Tools oder ohne externe Hilfe arbeiteten.
Das Ergebnis: Die ChatGPT-Gruppe zeigte kurzfristig bessere Aufgabenergebnisse, aber weniger Selbstregulation und weniger tiefe Verarbeitung. Sie übersprang systematisch die metakognitiven Schritte, also Planen, Überwachen, Evaluieren, die für nachhaltiges Lernen entscheidend sind. Der bequeme KI-Output ersetzte den unbequemen Denkprozess.
Das passt exakt zu dem, was ich in Seminaren beobachte. In Die KI-Schere habe ich beschrieben, dass Metakognition der Faktor ist, der Power User von reinen Tool-Nutzern unterscheidet. Die Fan-Studie erklärt den Mechanismus dahinter: KI macht es so leicht, den eigenen Denkprozess zu umgehen, dass selbst motivierte Lernende in die Falle tappen. Nicht aus Faulheit, sondern weil das System die Faulheit belohnt.
Und genau hier scheitert klassisches Nudging. Ein Pop-up, das fragt „Hast du den Output geprüft?“, adressiert System 1. Es ist ein Hinweis, den man wegklicken kann. Was gebraucht wird, ist eine Intervention, die System 2 aktiviert: langsames, bewusstes, anstrengendes Denken. Oder noch besser: eine, die Metakognition erzwingt. Drum haben wir Nudges entwickelt, die folgende Ansätze berücksichtigen: 12 KI-Nudges für bessere Nutzung von KI-Systemen
Drei Ansätze, die tatsächlich funktionieren
Provokationen statt Hinweise. Drosos und Kollegen von Microsoft Research haben 2025 untersucht, was passiert, wenn KI-Systeme nicht nur Vorschläge machen, sondern diese gleichzeitig in Frage stellen. Ihre „Provocations“ sind kurze Textimpulse, die Schwächen, Risiken und Alternativen zu KI-Empfehlungen aufzeigen. In einem Experiment mit 24 Teilnehmern bei KI-gestützten Entscheidungsaufgaben zeigten sie: Provokationen aktivieren metakognitives und kritisches Denken auf mehreren Ebenen. Der entscheidende Unterschied zum Nudge: Eine Provokation sagt nicht „Prüf das“. Sie sagt „Hier ist ein konkreter Grund, warum das falsch sein könnte.“ Das ist unbequemer und deshalb wirksamer.
Metakognitive Scaffolds statt Default-Änderungen. Xu zeigte 2025 im British Journal of Educational Technology, was passiert, wenn Studierende generative KI ohne metakognitiven Support nutzen: Sie verloren messbar an Selbstregulationsfähigkeit. Die Gruppe mit expliziter metakognitiver Begleitung, also strukturierten Reflexionsprompts während der Aufgabenbearbeitung, verbesserte dagegen ihre Aufgabenstrategie und Selbstevaluation. Der Unterschied: Kein sanfter Stupser am Rand, sondern ein integrierter Reflexionsmechanismus im Workflow selbst.
System-2-Nudging als Architekturprinzip. Ganapini und Kollegen haben mit dem FASCAI-Framework (Fast and Slow Collaborative AI) einen konzeptionellen Rahmen vorgeschlagen, der drei Typen von KI-Nudging unterscheidet: System-1-Nudges, die auf schnelles Übernehmen setzen (und bei Lernszenarien kontraproduktiv sind), System-2-Nudges, die bewusst Zeit zum eigenen Nachdenken lassen, bevor die KI-Empfehlung gezeigt wird, und metakognitive Nudges, die den Menschen auffordern, seine eigene Konfidenz einzuschätzen, bevor er die KI-Antwort sieht. Chiriatti, Ganapini und Kollegen haben in Nature Human Behaviour sogar vorgeschlagen, die Mensch-KI-Interaktion als eigenständiges „System 0“ zu konzeptualisieren, weil die kognitive Dynamik sich grundlegend von reiner Mensch-Mensch-Interaktion unterscheidet. Das FASCAI-Prinzip ist klar: Je weniger es um reine Effizienz geht und je mehr um Kompetenzaufbau, desto mehr muss das System den Menschen zum eigenen Denken zwingen, nicht zum Delegieren.
Was das für KI-Schulungen bedeutet
Die Implikation ist unbequem, aber eindeutig: Wer KI-Kompetenz aufbauen will, kann sich nicht auf Nudging verlassen. Die Intervention muss tiefer greifen.
Konkret heißt das: Statt Pop-ups und Erinnerungen brauchen KI-Workflows eingebaute Reflexionsschleifen. Statt „Hast du geprüft?“ die Frage „Was genau hast du geprüft und warum?“. Statt der Standardeinstellung „KI-Output akzeptieren“ die Standardeinstellung „KI-Output kommentieren“.
In unseren eigenen Seminaren setzen wir das um, indem wir erst die Grenzen zeigen, dann die Möglichkeiten. Das ist ein struktureller Eingriff in die Lernarchitektur, kein Nudge. Und wir nutzen Denkprotokolle von Reasoning-Modellen als eingebautes Reflexionswerkzeug: Wer dem Modell beim Zweifeln zuschaut, lernt selbst zu zweifeln.
Praxis-Take-Away: Drei Fragen an dein KI-Lerndesign
Wenn du KI in Schulungen, Onboardings oder Workflows integrierst, prüfe diese drei Fragen:
1. Wann muss der Mensch denken, bevor die KI antwortet? Wenn die KI sofort liefert, ist der Denkimpuls verloren. Baue Stellen ein, an denen der Mensch erst seine eigene Einschätzung formuliert, also metakognitive Nudges statt Effizienz-Nudges.
2. Gibt es eingebaute Provokationen, nicht nur Warnungen? Ein Hinweis „Prüfe die Quellen“ wird weggeklickt. Eine konkrete Gegenposition („Dieses Argument ignoriert den Faktor X“) erzwingt Auseinandersetzung. Provokationen sind wirksamer als Erinnerungen.
3. Was passiert, wenn die KI wegfällt? Können deine Leute die Aufgabe auch ohne KI lösen? Wenn nicht, hast du kein Werkzeug, sondern eine Krücke gebaut. Plane regelmäßige „KI-freie Phasen“ ein, in denen das Gelernte ohne Hilfsmittel angewendet wird.
Versteht mich nicht falsch, ich denke, dass kleine Nudges durchaus hilfreich sein können – drum haben wir auch eine Liste mit 12 Nudges erstellt. Aber die eigentliche Arbeit liegt in der Architektur: Systeme so zu bauen, dass sie menschliches Denken fordern statt ersetzen.






