Neues Charakter-Referenz-Feature cref von Midjourney getestet: Die Lösung für konsistente Charaktere und virtuelle Avatare?

Inhaltsverzeichnis

Die Generierung konsistenter Charaktere war bisher ein komplexes Thema, das sich nur über Stable Diffusion mit dem Training von LoRas, Checkpoints oder der Nutzung von IP Adapter abbilden ließ. Nerdig und schwer zugänglich. Aber jetzt stößt Midjourney zur Party dazu und hat seine eigene Form der Referenzierung über IP Adapter mitgebracht. In diesem Beitrag teste ich das Feature aus einer ganz eigenen Brille: Von jemandem, der damit beauftragt wird, solche künstlichen Avatare zu erschaffen. Challenge accepted!

Wie funktioniert das neue "cref" Feature von Midjourney?

Das Charakter-Referenz-Feature, kurz „cref“, ermöglicht es Nutzer:innen, eigene oder fremde Bilder als Referenz für die Erstellung neuer, einzigartiger Charaktere zu verwenden. Diese Technologie bietet unglaubliche Möglichkeiten, insbesondere in der Welt der virtuellen Avatare und digitalen Kunst.

Um das Feature zu nutzen, fügt ihr den Parameter –cref an euren Prompt an und gebt dahinter eine Bild-URL als Referenz an. Wie das geht zeige ich im folgenden Video:

Hier ein kurzes Tutorial-Video zur Nutzung von cref in Midjourney:

Gewichtung von --cref über --cw nutzen:

Um die Gewichtung der Referenz zu steuern, könnt ihr zusätzlich den Wert „cref weight“ (–cw) nutzen: 

  • –cw 100 (Standardwert): Hierbei wird alles als Referenz genutzt: Gesicht, Haare, Kleidung
  • –cw 50 (Mittelwert): Hier werden Teile aus der Referenz genutzt: z.B. Gesicht und Haare 
  • –cw 0 (Minimalwert): Hier wird nur das Gesicht als Referenz genutzt und der Rest variiert.

Natürlich könnt ihr auch auch alle Werte dazwischen nutzen.

Beispiel-Prompt:

/imagine Photo Type: portrait, 50mm photograph, Canon EOS R3, 4k, highly detailed, Subject Focus: 30 year old woman from Berlin, business clothing, shoulder length wavy pink hair, round glasses, brown eyes, happy, Color Tone: natural, Setting: office space background, Atmosphere: professional, Texture: film grain:2, Mood: happy, Composition: bokeh, Lighting: natural lighting –ar 4:5 –style raw –v 6.0 –cref https://bildurl.com/beispiel.png –cw 100

Was taugt das neue cref Feature von Midjourney?

Um das neue Feature für mich, KundInnen und KursteilnehmerInnen zu testen, habe ich das System auf zwei Arten getestet und schließlich noch gegen Stable Diffusion antreten lassen. 

Fremde Referenzen

Zunächst habe ich mit einem Bild experimentiert, das ich mit Stable Diffusion generiert habe. Durch Anpassen des „cref weight“ (–cw) konnte ich steuern, wie stark das Originalbild als Referenz herangezogen wird. Die Ergebnisse variierten je nach Einstellung erheblich, allerdings war die Ähnlichkeit zum Original nicht so konsistent, wie ich es mir gewünscht hatte.

Referenzbild – generiert mit Stable Diffusion
--cw 100
--cw 50
--cw 0
--cw 50 und in Interaktion gepromptet

Eigene Referenzen

Anschließend habe ich ein Bild verwendet, das von Midjourney selbst generiert wurde. Hier sind die Ergebnisse deutlich konsistenter, obwohl immer noch einige Abweichungen, beispielsweise bei Augenbrauen oder Gesichtsform, zu beobachten sind.

Referenzbild – generiert mit Midjourney
--cw 100
--cw 50
--cw 0
--cw 50 und in Interaktion gepromptet

Vergleich mit Stable Diffusion ohne Finetuning/Training

Ohne jegliches Feintuning oder Training konnte ich mithilfe eines speziell entwickelten Prompts einen relativ konsistenten virtuellen Avatar einer 30-jährigen Frau erschaffen. Dies zeigt ganz gut das Potenzial auch ohne aufwendiges Training.

Stable Diffusion mit IP Adapter

Jetzt simulieren wir die Technik hier Midjourney cref mit Stable Diffusion und nutzen ControlNet mit dem IP Adapter Plus Face SDXL. Das Ergebnis zeigt eine ähnliche Wirkung und ist ohne tiefere Einstellung der Parameter mit –cw 0. Es werden Details übernommen, aber nicht genug um eine 100%ig Ähnlichkeit zum Original zu gewährleisten. 

Referenzbild – generiert mit Stable Diffusion

Fazit

Das neue „cref“-Feature von Midjourney ist eine gute Ergänzung für alle, die im Bereich der digitalen Charaktererstellung tätig sind. Besonders beeindruckend ist die Leistungsfähigkeit des Features, wenn es mit von Midjourney generierten Bildern als Referenz arbeitet. Für Anwendungen, bei denen eine oberflächliche Wiedererkennbarkeit ausreicht, bietet es eine überzeugende Lösung. Dennoch gibt es Raum für Verbesserungen, insbesondere wenn es um die feine Abstimmung und die Konsistenz der generierten Bilder geht.

Wer stark Ähnlichkeit und mehr Flexibilität benötigt, kommt derzeit um ein Finetuning/Training für Stable Diffusion nicht herum. Hier kann man je nach Anforderung über das Training eines LoRas oder eines finegetunten Checkpoints nachdenken. Auf Grund der Flexibilität rate ich zum Checkpoint, da diese erfahrungsgemäß deutlich flexibler sind als LoRas. 

Du willst generative KI für Marketing und Kreation lernen?

In unserem KI Marketing Bootcamp nehmen wir dich an die Hand und erklären dir die Basics und das Hintergrundwissen dazu. Wir schulen Einzelpersonen oder auch ganze Abteilungen in unseren individuellen Unternehmens Bootcamps. Sprich uns einfach an und wir finden die passende Form für Dich.

Das könnte Dich auch interessieren:
Aktuelles
Vibe Marketing mit KI: Effizienz-Booster oder Einheitsbrei in Hochgeschwindigkeit?

„Vibe Marketing“ – das klingt erstmal nach TikTok, After-Work-Gin und einem schicken Buzzword für Agenturpräsentationen. Tatsächlich beschreibt der Begriff aber eine Entwicklung, die gerade viele Marketingteams (und Solo-Marketer) massiv beeinflusst – und zwar nicht nur im positiven Sinne. Denn im Kern geht es bei Vibe Marketing um eines: Möglichst schnell und flexibel auf Stimmungen, Trends und Zielgruppenbedürfnisse zu reagieren. Möglich wird das durch KI-gestützte Tools, die Texte, Bilder, Videos und Ideen in Rekordzeit produzieren –

Weiterlesen »
Aktuelles
Ist Freepik die eierlegende Wollmilchsau unter den Bildgeneratoren?

KI Tools im Marketing gibt es viele – aber welche bringen wirklich Ergebnisse? Und vor allem: Wie kannst du sie praxisnah anwenden?   Genau diese Frage stellen wir uns regelmäßig im KI Marketing Bootcamp. Denn Theorie ist gut, Praxis ist besser. Deshalb setzen wir auf Hands-on-Training mit den besten KI Tools. Eines davon – oder besser gesagt, unser neuer Favorit: Freepik. Warum? Weil es die perfekte Brücke zwischen Idee und Umsetzung ist – und zeigt,

Weiterlesen »
Aktuelles
Braucht man jetzt einen KI-Führerschein im Marketing?

In einer Zeit, in der künstliche Intelligenz nahezu alle Bereiche unseres Arbeitslebens durchdringt, macht ein neuer Begriff die Runde: der „KI-Führerschein„. Besonders im Marketing, wo KI-Tools bereits zum Alltag gehören, stellt sich die Frage: Ist diese neue Qualifikation tatsächlich notwendig? Lass uns gemeinsam einen Blick darauf werfen. Inhaltsverzeichnis Was versteht man unter einem KI-Führerschein im Marketing? Der Begriff „KI-Führerschein“ macht aktuell in Fachkreisen die Runde und beschreibt mehr als nur ein Zertifikat. Es geht vielmehr

Weiterlesen »
Aktuelles
Adobe Firefly Realitätscheck 2025: Strategien für maximale Ergebnisse trotz KI-Rückstand

Hat Adobe im Bereich generative KI den Anschluss verloren? Trotz früher Investitionen steht der Creative-Cloud-Riese vor Herausforderungen. In diesem Beitrag analysieren wir Adobes aktuelle KI-Funktionen in Photoshop, Illustrator, Express, Premiere und Co. Wir beleuchten, wie Adobes Fokus auf „rechtssichere“ Trainingsdaten die kreativen Möglichkeiten beeinflusst und zeigen, wie du als Marketing-Fachkraft dennoch das Beste aus den verfügbaren Tools herausholen kannst. Wie wir bereits in unserem früheren Artikel „Adobe Firefly 3 im Test: Adobe’s KI-Bildgenerator wird erwachsen“

Weiterlesen »
Aktuelles
Manus AI – Funktionen und Alleinstellungsmerkmale

Wenn du im digitalen Marketing unterwegs bist, hast du in letzter Zeit möglicherweise von Manus AI gehört – einem neuen KI-Tool aus China, das aktuell als interessante Alternative zu bekannten Lösungen wie ChatGPT diskutiert wird. Wichtig: Wir konnten Manus AI bisher noch nicht selbst testen, weshalb diese Einschätzung vorläufig bleibt und auf verfügbaren Informationen basiert. Manus AI wird derzeit vor allem als autonomer KI-Agent gehandelt, der komplexe Aufgaben übernimmt und durch eine intuitive Bedienung auffällt.

Weiterlesen »
KI im Einsatz
Vergleich der Top-Sprachmodelle 2025 für Marketing: ChatGPT-4o und GPT-4.5 vs. Claude 3.7 vs. Qwen 2.5 Max vs. DeepSeek R1 vs. Mistral vs. LLaMA 3 vs. Microsoft Copilot & Gemini 2.0 Pro

So, 2025 ist schon zwei Monate alt, und es wird höchste Zeit für einen aktuellen Vergleich der besten KI-Modelle – speziell für den Marketingbereich. Künstliche Intelligenz verändert die Art und Weise, wie Inhalte erstellt, analysiert und automatisiert werden, doch welche KI liefert wirklich die besten Ergebnisse für Marketer? OpenAI, Anthropic, Meta, Alibaba und Google bringen stetig neue Versionen heraus, während Open-Source-Alternativen immer leistungsfähiger werden. Deshalb lassen wir die führenden Modelle gegeneinander antreten: ChatGPT-4o, ChatGPT-4.5, Claude

Weiterlesen »

🚀 Exklusive Back-to-School-Aktion 🚀

Spare 880 € beim KI-Marketing-Bootcamp!

Bring eine Kolleg*in mit und erhalte 50% Rabatt für deine Begleitung.

Nur für kurze Zeit und solange Kontingent reicht! Aktion endet am 16. September 2024.

Abonniere unseren Newsletter 🥳