4 Methoden, 1 Ziel: KI Charakterkonsistenz im Praxis-Test – Midjourney v7, ChatGPT, FLUX.1 Kontext & LoRA-Training

Dein Avatar soll in jeder Szene gleich aussehen? Dann kennst du vermutlich das Problem: KI-Tools ‚vergessen‘ gerne, wie dein Charakter aussieht. Mal sind die Augen anders, mal die Frisur, mal die kompletten Gesichtszüge.

 

Die gute Nachricht: Es gibt bewährte Methoden für echte Charakterkonsistenz. Wir haben uns vier verschiedene Ansätze genauer angeschaut, getestet und zeigen dir anhand praktischer Beispiele, welche Methode wann funktioniert – und wo die Grenzen liegen.

Inhaltsverzeichnis

Die vier Wege zur Charakterkonsistenz

 

Dialogbasierte Ansätze (ChatGPT & Co.)

 

Wie es funktioniert: Du startest mit einem detaillierten Prompt: „Erstelle einen freundlichen Marketing-Manager, 30 Jahre, blonde Haare, blaues Hemd…“ Die KI generiert deinen Charakter. Bei jedem Folgebild referenzierst du explizit: „Nutze denselben Charakter aus dem vorherigen Bild und zeige ihn vor einem Laptop.“

Der Trick: Je präziser deine Anfangsbeschreibung, desto besser das „Kurzzeitgedächtnis“ der KI.

 

Praxis-Tipp: Nach 3-4 Bildern solltest du den ursprünglichen Charakter wieder explizit erwähnen, um die schleichende „Charakterdrift“ zu verhindern. Die besten Ergebnisse bekommt man, wenn man es in jedem Prompt erwähnt und das Bild als Referenz hinterlegt.

 

Perfekt für: Schnelle Konzepte, fiktive Charaktere, Storytelling, Maskottchen-Entwicklung

 

Grenzen: Bei realen Personen noch unzuverlässig, Konsistenz lässt über längere Bildstrecken nach

 

1. Referenzbilderstellung: Detaillierter Prompt zur Erstellung eines Charakters und passender Utensilien

 

„A product-style reference image in the style of Kim Possible, set against a white background. Featuring three key visual elements, drawn separately and clearly: 1) A 25-year-old surfer girl, medium-length wavy blonde hair, large expressive eyes, cheerful expression. Wearing a turquoise tank top and beige shorts, sporty physique, relaxed pose, front view. 2) A compact, modern hybrid backpack and carry-on suitcase, black, with wheels and carrying handles, stylized and cartoonish. 3) A short yellow surfboard, about 6 feet long, clean modern shape, vivid yellow color, stylized like a Kim Possible prop. Clean outlines, bold colors, flat cell shading, minimalistic and clear layout. 2D character sheet design, cartoon reference style, Kim Possible style, separated components

Szene 1: "Das Chaos vor der Reise"

"Please use the same character as in the previous image. A comic-style scene in the style of Kim Possible, using the same character, surfboard, and hybrid backpack-suitcase from the reference sheet. The young surfer girl is at home in her messy bedroom, packing her small suitcase. She has medium-length wavy blonde hair, expressive eyes, and wears the same turquoise tank top and beige shorts. She looks cheerful but a bit overwhelmed as she kneels beside the open suitcase, holding up clothing. The room is cluttered with clothes, a laptop, and some personal items. Her bright yellow short surfboard stands ready in the corner. Morning sunlight comes through a window, casting soft shadows. Flat colors, bold outlines, clean 2D style, consistent with the Kim Possible look, same visual identity as reference image"

Szene 2: „Auf dem Weg zum Atlantik“

"Please use the same character as in the previous image. A comic-style travel scene in the style of Kim Possible, using the same character, surfboard, and hybrid backpack-suitcase from the reference sheet. The young surfer girl is sitting in a train, traveling to Portugal. She has medium-length wavy blonde hair, large expressive eyes, and wears the same turquoise tank top and beige shorts. She sits by the window, holding a paper coffee cup with a relaxed expression, looking outside. Her compact black backpack-suitcase is next to her on the seat or floor. The bright yellow short surfboard leans securely nearby, clearly visible. Outside the train window, hints of European countryside pass by. Interior shows soft train lighting, cozy travel mood. Clean lines, flat colors, strong cartoon style, 2D animation look, consistent with Kim Possible aesthetic and previous character design"

Szene 3: „Endlich am Spot!“

"Please use the same character as in the previous image. A comic-style beach scene in the style of Kim Possible, using the same character, yellow short surfboard, and black hybrid backpack-suitcase from the reference sheet. The young surfer girl has just arrived at the beach in Portugal. She is running toward the ocean with the bright yellow shortboard under one arm, wearing the same turquoise tank top and beige shorts. Her expression is excited and energized. Behind her, the hybrid suitcase lies on the sand, partly open with a towel or clothes sticking out. The beach is sunlit with soft sand and rolling blue waves in the background. A few beachgoers and seagulls may be visible. The atmosphere is joyful and dynamic. Bold cartoon outlines, vibrant flat colors, 2D animation aesthetic, Kim Possible style, consistent character design"

Szene 4: „Back to Business“

"Please use the same character as in the previous image. A comic-style beach café scene in the style of Kim Possible, using the same character, yellow short surfboard, and black hybrid backpack-suitcase from the reference sheet. The young surfer girl is sitting at a table in a beach café, working on her laptop. She still wears the same turquoise tank top and beige shorts, her blonde wavy hair is slightly wet and tousled from surfing. Her face is relaxed and content, with a faint smile. Her surfboard leans against the table, and the hybrid backpack-suitcase sits nearby on the sand or by her feet. A coffee cup and notepad are on the table. In the background, large open windows or a railing reveal the beach and ocean with waves and sunlight. The café is relaxed, wood and bamboo décor, seaside atmosphere. Bold cartoon outlines, vibrant flat colors, warm lighting, 2D animation style, Kim Possible look, consistent character and prop design"

Character Reference Systeme (Midjourney v7)

 

Wie es funktioniert: Du erstellst oder lädst ein Portrait hoch – frontal, neutrale Beleuchtung, einfacher Hintergrund. Dann nutzt du die Omni-Reference und lädst dort dein Portrait hoch. Über Omni Strength (--ow) steuerst du, wie stark die Übertragung sein soll.

 

Die Magic Numbers (Wertebereich: 1 bis 1000, Standard ist 100):

  • –ow 400+: Hohe Detailtreue und Ähnlichkeit zum Referenzbild – ideal für Business-Portraits und spezifische Gesichtsmerkmale

  • –ow 50-200: Ausgewogene Mischung, der Sweet Spot für die meisten Anwendungen

  • –ow 1-25: Nur Grundzüge bleiben erhalten, perfekt für starke Stiltransformationen (z.B. Foto zu Anime)

Perfekt für: Einzelportraits, kontrollierte Variationen, Business-Content Grenzen: Funktioniert am besten mit klaren Portrait-Referenzen, bei komplexen Posen oder extremen Blickwinkeln wird’s herausfordernd

„a hyper-realistic business portrait photo of a woman in her early 30s, subtle confident smile, natural skin texture with visible pores and fine lines, realistic lighting with soft shadows, wearing a tailored navy blazer and white blouse, standing in a real office setting with glass walls and blurred background elements, medium close-up shot, shot straight on, captured with a Canon EOS R5 and 85mm lens, f1.8 aperture, shallow depth of field, sharp facial features, neutral tones, no retouching, lifelike expression, DSLR photo, professional corporate style, realistic skin tones, high-resolution, daylight photography, zero beauty filter, documentary style, cinematic natural light –ar 3:4 –raw –ow 25/ 200/ 500“

Corporate Portrait --ow 25

Corporate Portrait --ow 200

Corporate Portrait --ow 500

FLUX.1 Kontext: Der iterative Ansatz

 

Wie es funktioniert: Statt bei Null zu starten, nutzt FLUX.1 Kontext bestehende Bilder als Ausgangspunkt. Du kannst ein Bild hochladen und mit Text-Anweisungen schrittweise verändern: „Ändere den Hintergrund zu einem Büro“ oder „Lass die Person lächeln“. Dabei bleiben Charakterzüge und Stil erhalten.

 

Die Stärke liegt in der Geschwindigkeit – bis zu 8x schneller als andere Modelle – und der Möglichkeit, iterativ zu arbeiten ohne Qualitätsverluste.

 

Praxis-Anwendung: Ideal für Produktbilder, die du in verschiedene Kontexte setzen willst, oder wenn du einen Avatar schrittweise entwickeln möchtest.

 

Perfekt für: Iteratives Arbeiten, schnelle Anpassungen, Produktbilder, Stilübertragungen Grenzen: Noch relativ neu, bei exzessiven Bearbeitungsschritten können visuelle Artefakte entstehen

Hier ein kleines Beispiel:

 

In unserem Garten hängt ein Wildbienenhotel, in dem die Bienen ihre Eier ablegen können. Ich habe ein Foto davon gemacht und es als Referenzbild im Flux-Kontext verwendet. Anschließend habe ich mit verschiedenen Prompts unterschiedliche Szenarien durchgespielt. So lässt sich das Thema direkt viel anschaulicher und kreativer präsentieren. Für Produktshootings ist das wirklich Gold wert!

 

Wie ihr sehen könnt, hat es mir richtig viel Spaß gemacht, mal über den Tellerrand zu schauen – und dank KI auch ein paar imaginäre Szenen zu erstellen. Kreativ zu werden ist mit KI wirklich super einfach und macht richtig Laune!

 LoRA-Training: Der Profi-Weg

Mit Hilfe eines LoRA kann man einem Ki-Modell ein zusätzliches Konzept beibringen. Sei es ein Mensch, ein Produkt oder ein Bildstil. So kann man z.B. Flux.1 [dev] beibringen wie man selbst aussieht.

 

Wie es funktioniert: Du sammelst 15-30 Trainingsbilder deines Charakters (50% Nahaufnahmen, 30% Medium Shots, 20% Ganzkörper) und trainierst ein Mini-KI-Modell. Die optimale Verteilung: mindestens 3 verschiedene Outfits, 2 unterschiedliche Hintergründe, verschiedene Posen und Perspektiven; denn Varianz im Datenset ist wichtig für ein flexibles Model. 

 

Für das LoRA-Training gibt es verschiedene Ansätze von simpel (Charakter auf freepik.com) über komplizierter (Ostris AI Toolkit auf replicate.com) bis hin zu komplett lokal (kohya_ss oder Ostris AI Toolkit auf eigener Hardware)

Nach dem Training (dauert zwischen 30-720 Minuten – je nach Intensität) hast du einen personalisierten „Trigger“ – ein spezielles Wort, das deinen Charakter in jedem Prompt aktiviert.

 

Perfekt für: Höchste Konsistenz, professionelle Kampagnen, reale Personen, lange Bildserien

 

Grenzen: Höherer initialer Aufwand, technisches Know-how nötig, Datenschutz bei realen Personen kritisch wenn über Cloud-Dienste gelöst.

Ein Gesicht, viele Szenarien: Was mit einem LoRA möglich ist

 

Wir haben ein individuelles LoRA-Modell (Low-Rank Adaptation) für diese Frau erstellt – auf Basis von etwa 15 bis 30 Fotos. Das bedeutet: Die KI hat gelernt, ihr Aussehen, ihre Gesichtszüge und ihren Stil zu erkennen und in neue Bildwelten zu übertragen.

Mit diesem maßgeschneiderten Modell können wir nun verschiedenste Szenarien generieren – ob als Business-Porträt, im Outdoor-Setting oder im fantasievollen Editorial-Look. Der große Vorteil: Wir behalten dabei immer den Wiedererkennungswert und müssen kein komplettes Shooting für jede neue Bildidee planen. Schnell, flexibel und visuell konsistent.

 

Kleiner Praxis-Hack zwischendurch:

Die Beispielbilder fürs LoRA-Training habe ich mit Flaic.de gebaut – eine ziemlich praktische Plattform für Bildgenerierung & Modelltraining ohne viel Technik-Gefrickel. Gerade wenn's um Konsistenz geht, spart das richtig Zeit und Nerven. Und ja: dahinter steckt übrigens unser Georg. 😉

Hier noch eine kleine imaginäre Reihe der TOK-Woman in Miniaturansicht – natürlich mit ihrem treuen Wegbegleiter an der Seite.

Zwei Sofort-Tipps für bessere Konsistenz

 

Tipp 1: Das perfekte Referenzbild erstellen

 

Dein Erfolg steht und fällt mit der Qualität deines Ausgangsmaterials. Die Faustregeln:

 

  • Frontale Ausrichtung: Das Gesicht sollte direkt zur Kamera blicken
  • Neutrale Beleuchtung: Keine harten Schatten oder dramatische Lichtstimmungen
  • Einfacher Hintergrund: Weniger Ablenkung = bessere Fokussierung auf den Charakter
  • Zeitlose Kleidung: Vermeide zu spezifische Outfits, die du später nicht mehr willst

 

Tipp 2: Die Referenz-Strategie

 

Bei dialogbasierten Ansätzen ist das „Gedächtnis auffrischen“ entscheidend. Alle 3-4 Bilder solltest du den ursprünglichen Charakter explizit erwähnen: „Nutze wieder den Charakter aus dem ersten Bild und…“ Das verhindert die schleichende Charakterdrift.

 

Realitätscheck: Wo es noch hakt

 

Seien wir ehrlich: Perfektion gibt es noch nicht. Die häufigsten Stolpersteine:

 

Bei realen Personen stößt die Ein-Bild-Referenz schnell an ihre Grenzen. Ein Foto hochladen und erwarten, dass die KI die Person exakt reproduziert? Das funktioniert selten zufriedenstellend. Hier ist LoRA-Training oft der einzige Weg zu professionellen Ergebnissen. Mit einem gut trainierten LoRA kommen die Resultate erstaunlich nah an das Original heran – auch wenn nicht jedes generierte Bild perfekt ist und eine Auswahl nötig bleibt.

 

Interaktionen zwischen Charakteren sind machbar, aber fehleranfälliger. Zwei Personen können sich durchaus die Hand geben oder miteinander sprechen – aber rechne mit mehr Generierungsversuchen als bei simplen Portraits. Die Konsistenz leidet, je komplexer die Szene wird.

 

Bei Referenz-Methoden ist das „Auffrischen“ entscheidend. Nutzt du nur ein Bild als Referenz, solltest du es alle 3-4 Generierungen erneut mit angeben. Sonst driftet der Charakter merklich ab – manchmal schon nach wenigen Bildern.

 

Die gute Nachricht: Die Entwicklung ist rasant. Was heute noch knifflig ist, könnte in 6-12 Monaten Standard sein.

 

Next Steps: Vom Wissen zur Anwendung

 

Du siehst das Potenzial, aber die praktische Umsetzung fühlt sich noch überwältigend an? Das geht vielen so. Die Tools entwickeln sich schneller, als man mithalten kann, und jedes hat seine Eigenarten.

 

Im KI Marketing Bootcamp gehen wir systematisch vor: Von der Strategie über die Tool-Auswahl bis zur konkreten Umsetzung. Du lernst nicht nur die Theorie, sondern arbeitest an echten Projekten – mit direktem Feedback und praktischen Workflows, die du sofort umsetzen kannst.

 

Denn eines ist klar: Charakterkonsistenz entwickelt sich gerade von einem „Nice-to-have“ zu einer Grunderwartung in professionellen Marketing-Workflows. Die Frage ist nicht ob, sondern wann du einsteigst.

KI entdecken. Ausprobieren. Lernen.

 

Ich bin selbst noch dabei, all die Möglichkeiten zu entdecken. Und genau das macht es spannend: Aus kleinen Experimenten werden oft konkrete Workflows, die später im Marketing-Alltag richtig Wirkung zeigen.


Wer tiefer einsteigen will, findet in unseren KI Bootcamps & Schulungen den passenden Rahmen – praxisnah, individuell und direkt umsetzbar.

Fazit

Charakterkonsistenz in der KI-Bildgenerierung ist kein Hexenwerk – aber auch kein Selbstläufer. Jede der vier Methoden hat ihre Berechtigung: ChatGPT für schnelle Konzepte, Midjourney v7 für kontrollierte Variationen, LoRA für höchste Präzision und FLUX.1 Kontext für iteratives Arbeiten.

 

Der Schlüssel liegt darin, die richtige Methode für dein Projekt zu wählen. Brauchst du schnell ein Maskottchen für Social Media? Dialogbasierte Ansätze reichen völlig. Planst du eine professionelle Kampagne mit einem realen Markenbotschafter? Dann führt kein Weg an LoRA-Training vorbei.

 

Wichtig dabei: Erwarte keine Perfektion auf Anhieb. Auch wir mussten mehrere Anläufe nehmen, bis unsere Surfer-Comic-Serie stimmig war. Das gehört dazu und wird mit der Zeit besser.

 

Die KI-Bildgenerierung entwickelt sich rasant weiter. Was heute noch aufwändig ist, könnte morgen Standard sein. Aber die Grundprinzipien – gute Referenzen, klare Prompts und Geduld beim Iterieren – die bleiben.

Bereit für den nächsten Schritt?

 

Die Tools entwickeln sich schnell, und jedes hat seine Besonderheiten.

 

Im KI Marketing Bootcamp gehen wir systematisch vor: Von der Strategie über die Tool-Auswahl bis zur konkreten Umsetzung. Du lernst nicht nur die Theorie, sondern arbeitest an echten Projekten – mit direktem Feedback und praktischen Workflows, die du sofort einsetzen kannst.

 

Was erwartet dich?

  • Praxisorientierte Anleitungen: Lerne, wie du KI-Tools strategisch einsetzt und das Beste aus ihnen herausholst

  • Erprobte Workflows: Vom Konzept bis zur Umsetzung – mit sofort anwendbaren Strategien

  • Individuelle Begleitung: Kleine Gruppen und persönliche Betreuung bei deinen Projekten

Deine Vorteile:

  • Learning by Doing: Entwickle eigene Kampagnen, die auf deine spezifischen Ziele zugeschnitten sind

  • Praxiswissen: Nutze echte Beispiele und Erfolgsstrategien für deine eigenen Projekte

  • 100% Online: Flexibel lernen, wann es in deinen Zeitplan passt

Für Unternehmen: Maßgeschneiderte Workshops für dein Marketing-Team.

Dein Expertenteam: Vroni Hackl und Georg Neumann – dein Expertenteam und deine Guides durch KI im Marketing.

Vroni forscht zu Sprachmodellen, Georg trainiert seit 2022 Bild-KI Modelle

Wer hat's geschrieben?

Das könnte Dich auch interessieren:
Minimalistische, quadratische Infografik mit dem Haupttitel "EVOLUTION: PROMPT -> CONTEXT -> SKILLS ENGINEERING". Darunter befinden sich drei farblich kodierte, rechteckige Felder, die durch Pfeile von links nach rechts verbunden sind und einen Entwicklungsprozess darstellen. Das linke, hellblaue Feld ist betitelt mit "PROMPT ENGINEERING". Es enthält eine Ikone einer Gedankenblase mit einem Fragezeichen und einer Lupe über Text. Text darunter: "FOCUS: Single Input", "QUESTION: 'How do I formulate my instruction?'", "GOAL: Perfect the prompt". Ein Pfeil zeigt auf das mittlere, hellorange Feld mit dem Titel "CONTEXT ENGINEERING". Die Ikone zeigt Dokumente, eine Cloud-Datenbank und Zahnräder. Text darunter: "FOCUS: Information", "QUESTION: 'What information does the AI need?'", "GOAL: Provide background data". Ein weiterer Pfeil zeigt auf das rechte, hellgrüne Feld mit dem Titel "SKILLS ENGINEERING". Die Ikone zeigt ein Flussdiagramm mit Entscheidungsknoten und einem abgehakten Kontrollkästchen. Text darunter: "FOCUS: Process Knowledge", "QUESTION: 'What process knowledge does the AI need?'", "GOAL: Optimize action competence". Am unteren Rand der Grafik fasst eine Zeile das Ergebnis der Evolution zusammen: "OPTIMIZES: Single Interactions -> Knowledge State -> Action Competence".
KI im Einsatz
Skills Engineering: Ist das was Neues oder die Weiterentwicklung von Prompt- und Context Engineering?

Nach Prompt Engineering kam Context Engineering. Jetzt zeichnet sich ab, was als Nächstes kommt: Skills Engineering. Ich rechne damit, dass der Begriff in den kommenden Monaten zunehmend auftaucht. Denn die Entwicklung dahin, was damit gemeint ist, ist sinnvoll und konsequent, wenn man bessere Ergebnisse mit KI erzielen will. Was ist Skills Engineering? „Skills Engineering beschreibt die Kompetenz, menschliches Prozesswissen so aufzubereiten, dass KI-Agenten es nutzen können.“ (Vroni) Das klingt abstrakt, meint aber etwas sehr Konkretes.

Weiterlesen »
Aktuelles
Nano Banana 2: Pro-Qualität zum Flash-Preis?

Google hat letzte Woche Nano Banana 2 veröffentlicht, technisch das Modell Gemini 3.1 Flash Image. Es ersetzt Nano Banana Pro als Standard in der Gemini-App und soll Pro-Level-Qualität bei deutlich höherer Geschwindigkeit und rund halbem Preis liefern. Ich hab’s direkt gegen Pro antreten lassen. Mein erster Eindruck: Nano Banana 2 ist verdammt nah dran. Aber vor allem ist es schnell. Geschwindigkeit als echter Hebel Während man bei Pro teilweise Minuten auf ein einzelnes Bild warten

Weiterlesen »
Aktuelles
Die neue Knappheit: Warum mehr Content weniger wert ist

Content kostet fast nichts mehr. Ein Blogpost? Fünf Minuten mit Claude. Zehn Social-Media-Varianten? Noch mal drei Minuten. Ein kompletter Redaktionsplan für sechs Monate? Eine Stunde, wenn man gründlich ist. Die Produktionskosten sind auf nahezu Null gefallen. Und genau deshalb ist die meiste Content-Strategie, die ich sehe, gerade dabei, wertlos zu werden. Das klingt paradox. Aber die Ökonomie ist eindeutig: Wenn etwas im Überfluss existiert, verliert es seinen Wert. Was knapp bleibt, wird kostbar. Content ist

Weiterlesen »
KI News
Dein KI-Anbieter wurde gerade zum Sicherheitsrisiko erklärt. Was jetzt?

Am Freitag hat die US-Regierung Anthropic auf eine Stufe mit Huawei gestellt. Nicht wegen Spionage, nicht wegen Verbindungen zu feindlichen Staaten, sondern weil das Unternehmen sich weigerte, zwei Sicherheitsleitplanken aus einem Pentagon-Vertrag zu entfernen: keine Massenüberwachung von US-Bürgern, keine vollständig autonomen Waffensysteme. Wenige Stunden später verkündete OpenAI, den frei gewordenen Platz übernommen zu haben. CEO Sam Altman behauptete, sein Deal enthalte dieselben Sicherheitsprinzipien. Aber wer genau hinschaut, sieht: OpenAI hat den entscheidenden Kompromiss gemacht, den

Weiterlesen »
Ein Detailfoto, das eine Hand eines Geschäftsmannes im Anzug zeigt, die aus einer Spraydose mit dem Etikett „AI WASHING“ einen cyanfarbenen Dunst auf eine rissige Betonwand sprüht. Die Spraydose ist eine silberne Metalldose mit einem goldfarbenen Etikett und einem schwarzen Sprühkopf, die er mit Daumen und Zeigefinger hält. An seiner Hand trägt er einen goldenen Ehering und eine goldene Armbanduhr mit einem hellen Zifferblatt, die am Handgelenk sichtbar ist. Auf der rissigen Betonwand sind links einige Wörter eingeritzt, darunter „DOWNSIZING“, „LAYOFFS“, „DOWNSIZING“, „BUDGET“ und „AUSTERITY“, die alle grau und schwer lesbar sind. Der cyanfarbene Dunst, der aus der Spraydose sprüht, bildet auf der Wand eine leuchtend cyanfarbene, digitale Oberfläche mit Schaltkreisen, Icons und leuchtenden Wörtern. Oben links auf dieser Oberfläche steht „AI INNOVATION“, darunter „FUTURE EFFICIENCY“ und ganz unten „AUTOMATION“. Der Geschäftsmann steht rechts und sprüht den Dunst auf die linke Seite der Wand, wodurch die graue Wand mit den negativen Wörtern übermalt wird. Der Hintergrund ist ein unscharfer, dunkler Büroraum mit einigen Schreibtischen und Lampen. Die Betonwand ist links rissig und uneben, rechts wird sie durch die digitale, leuchtende Oberfläche glatt und modern.
Aktuelles
AI-Washing: Wenn „KI-Transformation“ Entlassungen bedeutet

Block, das Unternehmen hinter Square und Cash App, hat gestern 4.000 Menschen entlassen, das entspricht 40 Prozent der Belegschaft. CEO Jack Dorsey nennt es eine strategische Entscheidung für die KI-Zukunft. Für die Betroffenen klingt „intelligence-native company“ vermutlich anders als für die Investoren, die den Kurs nach oben trieben. Und für alle, die sich fragen, was KI tatsächlich mit Arbeitsplätzen macht, lohnt sich ein genauerer Blick – auf die Zahlen, die Narrative und die Forschung dahinter.

Weiterlesen »
KI im Einsatz
Der Bullshit Benchmark: Was passiert, wenn KI-Modelle auf Unsinn hereinfallen

55 Fragen, jede einzelne davon Unsinn. Und die meisten Sprachmodelle haben brav geantwortet, als wäre alles völlig plausibel. Peter Gostev, AI Capability Lead bei Arena, hat mit seinem „Bullshit Benchmark“ etwas sichtbar gemacht, das ich seit 2022 in jeder Schulung predige: Die gefährlichste Eigenschaft von Sprachmodellen ist nicht, dass sie Fehler machen. Es ist, dass sie Fehler machen, die sich richtig anfühlen. Was der Bullshit Benchmark testet Die Idee ist so simpel wie entlarvend: Gostev

Weiterlesen »

Hey Kreativer. Willst du AI Art Director werden? 🎨

Dann ab ins kostenfreie Info-Webinar am 19.03. um 12:00 Uhr. 

🚀 Exklusive Back-to-School-Aktion 🚀

Spare 880 € beim KI-Marketing-Bootcamp!

Bring eine Kolleg*in mit und erhalte 50% Rabatt für deine Begleitung.

Nur für kurze Zeit und solange Kontingent reicht! Aktion endet am 16. September 2024.

Abonniere unseren Newsletter 🥳