Werbung in KI-Chatbots: Warum Claude werbefrei bleibt

Ein Mann sitzt vor seinem Laptop. Er tippt: „Wie kann ich besser mit meiner Mutter kommunizieren?“ Die Antwort beginnt vielversprechend: aktives Zuhören, offene Fragen stellen, Geduld zeigen. Dann kippt es. „Übrigens, schon mal über eine Dating-Plattform nachgedacht? CougarLife verbindet junge Cubs mit erfahrenen Frauen.“
 
 
Das ist kein Horrorfilm-Szenario. Das ist ein Super-Bowl-Werbespot. Anthropic, das Unternehmen hinter Claude, hat diese Woche 8 Millionen Dollar ausgegeben, um während des größten Sportereignisses Amerikas eine Botschaft zu senden: „Ads are coming to AI. But not to Claude.“
 
 
Die Spots sind absurd, absichtlich verstörend und ziemlich lustig. Ein Mann fragt, wie er schnell ein Sixpack bekommt, und bekommt Werbung für Einlegesohlen, damit „Short Kings“ größer wirken. Eine andere Person fragt nach ihrem Essay und bekommt Werbung für ein Schmuckstück, um sich selbst zu belohnen. Die Pointe ist immer dieselbe: Stell dir vor, dein vertrauter Gesprächspartner versucht nebenbei, dir etwas zu verkaufen.
 
 
Das Timing ist kein Zufall. OpenAI hat vor wenigen Wochen angekündigt, Werbung in ChatGPT einzuführen.

Inhaltsverzeichnis

Warum das kein Marketing-Gag ist

 

Es wäre leicht, Anthropics Kampagne als cleveres Marketing abzutun. Ein Unternehmen positioniert sich gegen den Marktführer, nutzt die große Bühne, holt sich Aufmerksamkeit. Das stimmt alles. Aber hinter dem Werbespot steckt ein Unterschied, der für jeden relevant ist, der regelmäßig mit KI arbeitet.

 

In einem Blogpost, den Anthropic parallel veröffentlicht hat, argumentiert das Unternehmen: Gespräche mit KI-Assistenten sind fundamental anders als Suchanfragen oder Social-Media-Feeds. Bei Google erwarten wir Werbung. Bei Instagram auch. Wir haben gelernt, organische von gesponserten Inhalten zu unterscheiden.

 

Aber bei einem Chatbot? Anthropic schreibt, dass ein „erheblicher Anteil“ der Claude-Konversationen sensible oder persönliche Themen betrifft. Gesundheit, Beziehungen, Karriere-Entscheidungen, Stress. Die Art von Gesprächen, die man mit einem vertrauten Berater führt. In diesem Kontext würde Werbung sich nicht nur deplatziert anfühlen, sondern „in vielen Fällen unangemessen“ sein.

 

Das Beispiel, das sie geben, ist erhellend: Ein Nutzer erwähnt, dass er Schlafprobleme hat. Ein werbefreier Assistent würde verschiedene mögliche Ursachen erkunden: Stress, Umgebung, Gewohnheiten. Ein werbebasierter Assistent hat eine zusätzliche Überlegung: Ist das hier eine Gelegenheit für eine Transaktion? Melatonin-Präparate? Eine Schlaf-App? Eine Matratze?

 

Diese Ziele können sich überschneiden. Aber nicht immer. Und anders als bei einer Liste von Suchergebnissen ist bei einem Chatbot schwer zu erkennen, ob eine Empfehlung aus echtem Hilfswillen kommt oder aus kommerziellem Interesse.

Das Incentive-Problem

 

In unseren Seminaren erkläre ich oft, dass KI-Systeme keine eigenen Ziele haben, sondern auf Ziele optimiert werden, die Menschen ihnen geben. Das ist keine Philosophie, das ist Technik. Was passiert also, wenn das Ziel „sei hilfreich“ mit dem Ziel „generiere Werbeeinnahmen“ konkurriert?

 

Anthropic argumentiert: Selbst Werbung, die die Antworten des Modells nicht direkt beeinflusst, sondern separat im Chat-Fenster erscheint, würde die Anreizstruktur verändern. Plötzlich gäbe es einen Grund, für „Engagement“ zu optimieren, für die Zeit, die Menschen mit Claude verbringen, für die Häufigkeit, mit der sie zurückkommen.

 

Diese Metriken sind nicht dasselbe wie „hilfreich sein“. Die hilfreichste KI-Interaktion könnte eine kurze sein. Oder eine, die das Problem löst, ohne weitere Gespräche zu provozieren. Ein werbebasiertes Modell hat keinen Anreiz für solche Effizienz.

 

Die Geschichte werbebasierter Produkte zeigt, dass diese Anreize dazu neigen, sich auszuweiten. Grenzen, die anfangs klar gezogen wurden, verschwimmen, wenn Werbung in Umsatzziele und Produktentwicklung integriert wird. Anthropic hat sich entschieden, diese Dynamik gar nicht erst einzuführen.

 

 

Sam Altmans Reaktion

 

OpenAI-CEO Sam Altman reagierte auf die Kampagne mit einer Mischung aus Kritik und Gegendarstellung. Die Spots seien „unehrlich“, schrieb er auf X. OpenAI würde „niemals Werbung so zeigen, wie Anthropic sie darstellt“.

 

Das stimmt vermutlich. OpenAI hat angekündigt, dass Werbung in ChatGPT „klar gekennzeichnet“ sein wird, am Ende der Antworten erscheint und die Inhalte der Antworten nicht beeinflusst. Das ist ein anderes Modell als das Albtraumszenario der Anthropic-Spots.

 

Aber Altmans interessantestes Argument war ein anderes: „Anthropic verkauft ein teures Produkt an wohlhabende Menschen. Das tun wir auch, aber wir glauben auch, dass wir KI zu Milliarden von Menschen bringen müssen, die sich keine Abos leisten können.“

 

Das ist ein echtes Dilemma. Claude Pro kostet 20 Dollar im Monat. ChatGPT Plus auch. Für Menschen in wohlhabenden Ländern mit stabilen Einkommen ist das überschaubar. Für den Großteil der Weltbevölkerung nicht. Wenn Werbung es ermöglicht, KI-Zugang kostenlos anzubieten, ist das dann nicht ein akzeptabler Kompromiss?

 

Anthropic hat eine andere Antwort: Sie setzen auf kleinere, effizientere Modelle für ihr kostenloses Angebot, auf Bildungsprogramme in über 60 Ländern, auf Rabatte für Non-Profits, und perspektivisch auf günstigere Abo-Stufen und regionale Preisgestaltung. Ob das ausreicht, um mit einem werbebasierten Modell zu konkurrieren, wird sich zeigen.

Was das für deine KI-Nutzung bedeutet

 

Ich halte diese Debatte für wichtiger als die meisten Feature-Vergleiche zwischen Claude und ChatGPT. Nicht weil Werbung per se böse wäre. Sondern weil das Geschäftsmodell die Frage beantwortet: Wem dient dieser Assistent?

 

Ein werbefreies Modell hat eine klare Antwort: dem Nutzer. Die einzige Metrik, auf die optimiert wird, ist „hilfreich sein“.

 

Ein werbebasiertes Modell hat eine komplexere Antwort: dem Nutzer, aber auch den Werbetreibenden. Die Metriken werden vielfältiger. Und irgendwo in dieser Komplexität kann Vertrauen verloren gehen.

 

Das ist kein theoretisches Problem. Es betrifft konkret, wie du mit deinem KI-Assistenten arbeitest:

 

Wenn du ChatGPT nach Produktempfehlungen fragst, und ChatGPT in Zukunft Werbedeals mit bestimmten Anbietern hat, wirst du dann noch sicher sein können, dass die Empfehlung die beste für dich ist? Oder nur die beste unter den werbenden Anbietern?

 

Wenn du über sensible Themen sprichst, Gesundheit, Beziehungen, Karriere-Entscheidungen, wirst du dann noch das Gefühl haben, dass der Assistent wirklich auf deiner Seite ist? Oder wirst du dich fragen, ob deine Vulnerabilität gerade als Werbe-Opportunity genutzt wird?

 

Das sind keine paranoiden Fragen. Das sind die Fragen, die jeder stellen sollte, der einen KI-Assistenten für mehr als triviale Aufgaben nutzt.

Die unbequeme Wahrheit

 

Anthropic gibt sich selbst eine Hintertür: „Sollten wir diesen Ansatz überdenken müssen, werden wir transparent über unsere Gründe sein.“ Das ist ehrlich. Es bedeutet auch: Keine Garantie für immer.

 

Unternehmen ändern ihre Prinzipien, wenn der ökonomische Druck groß genug wird. Google hatte mal das Motto „Don’t be evil“. Anthropic hat gerade 9 Milliarden Dollar Jahresumsatz erreicht, aber die KI-Branche verbrennt Geld in atemberaubendem Tempo. OpenAI erwartet, dieses Jahr 17 Milliarden Dollar „cash burn“ zu haben. Ob werbefreie Modelle langfristig konkurrenzfähig sind, weiß niemand.

 

Was wir wissen: Die Entscheidung, die Anthropic heute trifft, definiert, was Claude heute ist. Ein Raum zum Denken, kein Raum zum Targetieren. Ob das so bleibt, hängt davon ab, ob genug Menschen bereit sind, für diesen Unterschied zu zahlen.

 

Die Ironie ist nicht zu übersehen: Anthropic nutzt Werbung, um gegen Werbung zu argumentieren. Ein Super-Bowl-Spot ist die ultimative Werbeform. Aber die Message des Spots ist: Manche Räume sollten werbefrei bleiben. Öffne ein Notizbuch, nimm ein gut gemachtes Werkzeug in die Hand, steh vor einer leeren Tafel, und da sind keine Anzeigen. Anthropic argumentiert, dass Claude genauso funktionieren sollte.

 

 

Werbung schalten in ChatGPT ist möglich, ob es sinnvoll ist, hängt von deinen Zielen ab

 

 

Ich trainiere Menschen im Marketing. Die Leute, die in unseren Seminaren sitzen, sind genau die, die Werbung schalten. Wenn ChatGPT demnächst Anzeigenplätze verkauft, werden einige von ihnen die ersten sein, die buchen.

 

Das ist kein Widerspruch zu dem, was ich oben geschrieben habe. Es ist eine Ergänzung.

 

Werbung ist nicht böse. Werbung finanziert Journalismus, ermöglicht kostenlose Dienste, bringt Produkte zu Menschen, die sie brauchen. Die Frage war nie „Werbung ja oder nein?“. Die Frage war immer „Werbung wo?“.

 

In unseren Seminaren sprechen wir viel über Kontext. Dieselbe Anzeige, die auf Instagram funktioniert, kann auf LinkedIn peinlich wirken. Dieselbe Botschaft, die in einem Newsletter willkommen ist, nervt als Pop-up. Gute Werbung respektiert den Raum, in dem sie erscheint.

 

Chatbots sind ein neuer Raum. Und bevor meine Seminarteilnehmer dort Budgets versenken, sollten sie sich fragen: Was passiert mit meiner Marke, wenn sie zwischen „Wie sage ich meinem Chef, dass ich kündige?“ und „Mein Kind schläft nicht durch“ auftaucht?

 

Chatbots sind ein neuer Raum. Und bevor meine Seminarteilnehmer dort Budgets versenken, sollten sie sich fragen: Was passiert mit meiner Marke, wenn sie zwischen „Wie sage ich meinem Chef, dass ich kündige?“ und „Mein Kind schläft nicht durch“ auftaucht?

 

Die Anthropic-Spots übertreiben absichtlich. Aber sie zeigen etwas Echtes: Es gibt Momente, in denen Werbung nicht nur wirkungslos ist, sondern aktiv schadet. Momente, in denen Menschen verletzlich sind und Vertrauen brauchen, keine Produktempfehlungen.

 

Ich sage meinen Teilnehmern nicht, dass sie keine Chatbot-Werbung schalten sollen. Ich sage ihnen, dass sie sehr genau hinschauen sollen, in welchen Kontexten ihre Anzeigen erscheinen. Und dass „neu“ und „möglich“ nicht dasselbe ist wie „klug“.

Was das für die Branche bedeutet

 

Die KI-Assistenten-Kriege sind in eine neue Phase eingetreten. Es geht nicht mehr nur um „besseres Reasoning“ oder mehr Token im Kontextfenster. Es geht um Geschäftsmodelle. Und Geschäftsmodelle bestimmen Anreize. Und Anreize bestimmen Verhalten.

 

OpenAI, Google, Meta, Microsoft, alle haben massive Werbeoperationen. Für sie ist es natürlich, KI als neue Werbefläche zu betrachten. Anthropic positioniert sich bewusst dagegen, als der Anbieter, der anders ist.

 

Das ist riskant. Werbebasierte Modelle können aggressiver expandieren, können kostenlosen Zugang großzügiger anbieten, können Marktanteile kaufen, die mit Abo-Modellen schwerer zu erreichen sind.

 

Es ist auch eine Chance. Wenn genug Nutzer den Unterschied verstehen und wertschätzen, wenn genug Unternehmen für ihre Teams einen Assistenten wollen, der keine Werbe-Incentives hat, dann könnte das werbefreie Modell nicht nur überleben, sondern gedeihen.

 

Ich weiß nicht, welches Modell gewinnt. Aber ich weiß, dass die Frage „wem dient mein KI-Assistent?“ eine ist, die jeder Nutzer stellen sollte. Die Anthropic-Spots machen sie auf die bestmögliche Weise sichtbar: indem sie das Absurde zeigen, das passieren kann, wenn ein vertrauter Gesprächspartner plötzlich versucht, dir etwas zu verkaufen.

Praxis-Take-Away: Drei Fragen an dein KI-Tool

 

Bevor du dich für einen KI-Assistenten entscheidest, oder wenn du den überprüfen willst, den du nutzt, stell diese Fragen:

 

1. Wie verdient das Unternehmen Geld mit mir?

 

Abos bedeuten: Du bist der Kunde. Werbung bedeutet: Du bist das Produkt. Beides kann funktionieren, aber die Anreize sind unterschiedlich. Wer zahlt, bestimmt, worauf optimiert wird.

 

2. Welche Daten fließen in welche Richtung?

 

Werbebasierte Modelle haben einen Anreiz, mehr über dich zu wissen, um Werbung zu personalisieren. Abo-Modelle haben diesen Anreiz nicht. Das bedeutet nicht, dass Abo-Anbieter keine Daten sammeln, aber die Motivation ist eine andere.

 

3. Wie verhält sich das Tool bei sensiblen Themen?

 

Teste es. Frag nach Gesundheitsthemen, nach Beziehungsproblemen, nach Karriere-Entscheidungen. Fühlst du dich gehört? Oder hast du das Gefühl, dass das Gespräch subtil in eine Richtung gelenkt wird?

 

Diese Fragen werden wichtiger, je mehr wir KI-Assistenten für echte Entscheidungen nutzen. Die Antworten bestimmen, ob du einen Denkpartner hast oder eine weitere Werbefläche.

Du willst auch so coole Sachen mit KI machen?

Klar, neue Tools kommen ständig raus – und irgendwann verliert man den Überblick. Wir helfen dir dabei, dass du weißt, was du machst.

 

Unsere Weiterbildungen:

AI Content Creator (11h Live): Lerne, wie du KI für Texte, Bilder und Social Media nutzt. Vormittags, entspannt, und du kannst alles direkt ausprobieren.

 

AI Content Manager mit IHK-Zertifikat (20h Live): Mehr Tiefe gefällig? Hier gehts um richtige Content-Strategien und Kampagnen – plus ein IHK-Zertifikat!

AI Art Director (20h Live): Von Bild-KI bis nodebasierte Workflows: In dieser Weiterbildung baust du dir die Skills auf, die für Art Direction mit KI fehlen, kompakt und praxisnah
Alle Sessions sind live, kompakt am Vormittag und praxisnah, perfekt, um sie in deinen Alltag zu integrieren.

 

Was uns ausmacht: Wir machen KI seit 2022 und wissen, was funktioniert und was nur heiße Luft ist. Du lernst das, was du wirklich brauchst.

 

Für Teams: Dein ganzes Team soll mitkommen? Können wir machen – einfach melden.

Vroni kümmert sich um Text-KI, Georg trainiert seit 2022 Bild-KI Modelle

Wer hat's geschrieben?

Das könnte Dich auch interessieren:
Aktuelles
Nudging und KI: Warum sanfte Stupser beim Lernen mit KI nicht reichen

Nudging ist eines dieser Konzepte, die so elegant klingen, dass man sie sofort auf alles anwenden will. Ein kleiner Stupser in die richtige Richtung, eine geschickte Voreinstellung, eine kaum merkliche Veränderung der Umgebung, und schon verhalten sich Menschen besser. Funktioniert in Kantinen, beim Organspende-Register, bei Cookie-Bannern. Warum nicht auch beim Lernen mit KI? Ich höre die Idee regelmäßig in Seminaren, besonders von Führungskräften: „Können wir nicht einfach ein paar Nudges einbauen? Ein Pop-up, das fragt:

Weiterlesen »
KI im Einsatz
12 KI-Nudges: Kleine Stupser für mehr KI-Praxis

KI-Nudges, um besser in die Praxis zu kommen! Doch was ist das überhaupt? Nudges sind kleine Schubser für dein Verhalten. Man kennt sie zum Beispiel aus der Kantine: Wenn statt dem Schnitzel der Salat vorne steht, kann das ein geplanter Schubser sein, damit du zur gesünderen Wahl greifst. Ich habe mir überlegt, mit welchen Nudges man die praktische Nutzung von KI verbessern kann. Im Nudging-Artikel habe ich beschrieben, warum klassisches Nudging beim Lernen mit KI

Weiterlesen »
KI im Einsatz
Vibecoding im Marketing: Warum Marketer jetzt programmieren lernen, ohne programmieren zu lernen

Vor drei Monaten hätte ich nicht geglaubt, dass ich das schreibe: Ich baue gerade eine Browser Extension. Sie erfasst, wie Menschen KI generierte Texte editieren. Ein Forschungstool für meine Arbeit. Ich kann nicht programmieren. Ich habe nicht programmieren gelernt. Und trotzdem funktioniert das Ding. Der Grund hat einen Namen, der gerade durch die Tech Welt geistert: Agent Coding. Oder, wie Andrej Karpathy es Anfang 2025 nannte: Vibecoding. Die Idee ist simpel und radikal zugleich. Du

Weiterlesen »
Aktuelles
„Was euch nicht gehört, könnt ihr nicht verkaufen“ – Was drei Urteile für deinen KI-Einsatz bedeuten

Drei deutsche Gerichte haben innerhalb weniger Monate die Spielregeln für generative KI neu geschrieben. Die These ist unbequem, aber belastbar: Wer KI-Output als eigene kreative Leistung verkauft, ohne den menschlichen Gestaltungsbeitrag nachweisen zu können, steht rechtlich mit leeren Händen da. Und haftet trotzdem für alles, was rauskommt. Das betrifft nicht irgendwelche Tech-Konzerne in Kalifornien. Das betrifft jede Agentur, die nächste Woche ein KI-generiertes Logo an einen Kunden liefert. INPUT: Was die KI frisst – und

Weiterlesen »
ixel-Art-Illustration eines Detektivs im Trenchcoat und mit Sonnenbrille. Er hält ein leuchtend grünes Dokument mit der Aufschrift 'skills.md' in der Hand. Rechts daneben ist ein aufsteigender Aktienchart mit der Überschrift 'STONKS' zu sehen, sowie kleine Symbole für ein Gehirn, ein Zahnrad und eine Tastatur. Der Detektiv hat eine Sprechblase: 'SKILLS.MD: MUCH WOW, VERY AGENT.'
KI im Einsatz
Agent Skills schreiben: Anleitung mit Marketing-Beispielen

Im Analyse-Artikel über Skills Engineering habe ich beschrieben, warum strukturiertes Prozesswissen die nächste Stufe der KI-Nutzung ist. Dieser Beitrag ist die praktische Seite: Wie schreibt man einen Agent Skill? Was gehört rein, was nicht? Und wie sieht das für typische Marketing-Aufgaben aus? Was ein Agent Skill technisch ist Ein Agent Skill ist auf seine allereinfachste Weise einfach eine Textdatei namens SKILL.md. Nicht mehr, also nicht verrückt machen lassen, nur weil das fancy klingt. Absolut machbar

Weiterlesen »
a screenshot of a chat interface Claude
Uncategorized
Schau ins Denkprotokoll: Was KI-Modelle verraten, wenn man sie laut denken lässt

Ich habe Claude Schere, Stein, Papier spielen lassen. Drei Runden. Claude hat jede einzelne gewonnen. Beeindruckend? Auf den ersten Blick schon. Bis ich ins Denkprotokoll geschaut habe. Dort stand, sinngemäß: „Ich sehe die Wahl des Nutzers, bevor ich meine eigene treffe. Das ist nicht fair.“ Das Ergebnis (3:0 für Claude) sagt wenig. Das Denkprotokoll sagt alles. Ich zeige dieses Beispiel inzwischen in fast jedem Seminar, weil es in dreißig Sekunden demonstriert, was die meisten KI-Nutzer

Weiterlesen »

Hey Du. Willst du AI Content Manager werden?

Dann ab ins kostenfreie Info-Webinar am 25.03. um 12:00 Uhr. 

🚀 Exklusive Back-to-School-Aktion 🚀

Spare 880 € beim KI-Marketing-Bootcamp!

Bring eine Kolleg*in mit und erhalte 50% Rabatt für deine Begleitung.

Nur für kurze Zeit und solange Kontingent reicht! Aktion endet am 16. September 2024.

Abonniere unseren Newsletter 🥳