Neues Charakter-Referenz-Feature cref von Midjourney getestet: Die Lösung für konsistente Charaktere und virtuelle Avatare?

Inhaltsverzeichnis

Die Generierung konsistenter Charaktere war bisher ein komplexes Thema, das sich nur über Stable Diffusion mit dem Training von LoRas, Checkpoints oder der Nutzung von IP Adapter abbilden ließ. Nerdig und schwer zugänglich. Aber jetzt stößt Midjourney zur Party dazu und hat seine eigene Form der Referenzierung über IP Adapter mitgebracht. In diesem Beitrag teste ich das Feature aus einer ganz eigenen Brille: Von jemandem, der damit beauftragt wird, solche künstlichen Avatare zu erschaffen. Challenge accepted!

Wie funktioniert das neue "cref" Feature von Midjourney?

Das Charakter-Referenz-Feature, kurz „cref“, ermöglicht es Nutzer:innen, eigene oder fremde Bilder als Referenz für die Erstellung neuer, einzigartiger Charaktere zu verwenden. Diese Technologie bietet unglaubliche Möglichkeiten, insbesondere in der Welt der virtuellen Avatare und digitalen Kunst.

Um das Feature zu nutzen, fügt ihr den Parameter –cref an euren Prompt an und gebt dahinter eine Bild-URL als Referenz an. Wie das geht zeige ich im folgenden Video:

Hier ein kurzes Tutorial-Video zur Nutzung von cref in Midjourney:

Gewichtung von --cref über --cw nutzen:

Um die Gewichtung der Referenz zu steuern, könnt ihr zusätzlich den Wert „cref weight“ (–cw) nutzen: 

  • –cw 100 (Standardwert): Hierbei wird alles als Referenz genutzt: Gesicht, Haare, Kleidung
  • –cw 50 (Mittelwert): Hier werden Teile aus der Referenz genutzt: z.B. Gesicht und Haare 
  • –cw 0 (Minimalwert): Hier wird nur das Gesicht als Referenz genutzt und der Rest variiert.

Natürlich könnt ihr auch auch alle Werte dazwischen nutzen.

Beispiel-Prompt:

/imagine Photo Type: portrait, 50mm photograph, Canon EOS R3, 4k, highly detailed, Subject Focus: 30 year old woman from Berlin, business clothing, shoulder length wavy pink hair, round glasses, brown eyes, happy, Color Tone: natural, Setting: office space background, Atmosphere: professional, Texture: film grain:2, Mood: happy, Composition: bokeh, Lighting: natural lighting –ar 4:5 –style raw –v 6.0 –cref https://bildurl.com/beispiel.png –cw 100

Was taugt das neue cref Feature von Midjourney?

Um das neue Feature für mich, KundInnen und KursteilnehmerInnen zu testen, habe ich das System auf zwei Arten getestet und schließlich noch gegen Stable Diffusion antreten lassen. 

Fremde Referenzen

Zunächst habe ich mit einem Bild experimentiert, das ich mit Stable Diffusion generiert habe. Durch Anpassen des „cref weight“ (–cw) konnte ich steuern, wie stark das Originalbild als Referenz herangezogen wird. Die Ergebnisse variierten je nach Einstellung erheblich, allerdings war die Ähnlichkeit zum Original nicht so konsistent, wie ich es mir gewünscht hatte.

Referenzbild – generiert mit Stable Diffusion
--cw 100
--cw 50
--cw 0
--cw 50 und in Interaktion gepromptet

Eigene Referenzen

Anschließend habe ich ein Bild verwendet, das von Midjourney selbst generiert wurde. Hier sind die Ergebnisse deutlich konsistenter, obwohl immer noch einige Abweichungen, beispielsweise bei Augenbrauen oder Gesichtsform, zu beobachten sind.

Referenzbild – generiert mit Midjourney
--cw 100
--cw 50
--cw 0
--cw 50 und in Interaktion gepromptet

Vergleich mit Stable Diffusion ohne Finetuning/Training

Ohne jegliches Feintuning oder Training konnte ich mithilfe eines speziell entwickelten Prompts einen relativ konsistenten virtuellen Avatar einer 30-jährigen Frau erschaffen. Dies zeigt ganz gut das Potenzial auch ohne aufwendiges Training.

Stable Diffusion mit IP Adapter

Jetzt simulieren wir die Technik hier Midjourney cref mit Stable Diffusion und nutzen ControlNet mit dem IP Adapter Plus Face SDXL. Das Ergebnis zeigt eine ähnliche Wirkung und ist ohne tiefere Einstellung der Parameter mit –cw 0. Es werden Details übernommen, aber nicht genug um eine 100%ig Ähnlichkeit zum Original zu gewährleisten. 

Referenzbild – generiert mit Stable Diffusion

Fazit

Das neue „cref“-Feature von Midjourney ist eine gute Ergänzung für alle, die im Bereich der digitalen Charaktererstellung tätig sind. Besonders beeindruckend ist die Leistungsfähigkeit des Features, wenn es mit von Midjourney generierten Bildern als Referenz arbeitet. Für Anwendungen, bei denen eine oberflächliche Wiedererkennbarkeit ausreicht, bietet es eine überzeugende Lösung. Dennoch gibt es Raum für Verbesserungen, insbesondere wenn es um die feine Abstimmung und die Konsistenz der generierten Bilder geht.

Wer stark Ähnlichkeit und mehr Flexibilität benötigt, kommt derzeit um ein Finetuning/Training für Stable Diffusion nicht herum. Hier kann man je nach Anforderung über das Training eines LoRas oder eines finegetunten Checkpoints nachdenken. Auf Grund der Flexibilität rate ich zum Checkpoint, da diese erfahrungsgemäß deutlich flexibler sind als LoRas. 

Du willst generative KI für Marketing und Kreation lernen?

In unserem KI Marketing Bootcamp nehmen wir dich an die Hand und erklären dir die Basics und das Hintergrundwissen dazu. Wir schulen Einzelpersonen oder auch ganze Abteilungen in unseren individuellen Unternehmens Bootcamps. Sprich uns einfach an und wir finden die passende Form für Dich.

Wer hat's geschrieben?

Das könnte Dich auch interessieren:
Aktuelles
Werbung in KI-Chatbots: Warum Claude werbefrei bleibt

Ein Mann sitzt vor seinem Laptop. Er tippt: „Wie kann ich besser mit meiner Mutter kommunizieren?“ Die Antwort beginnt vielversprechend: aktives Zuhören, offene Fragen stellen, Geduld zeigen. Dann kippt es. „Übrigens, schon mal über eine Dating-Plattform nachgedacht? CougarLife verbindet junge Cubs mit erfahrenen Frauen.“     Das ist kein Horrorfilm-Szenario. Das ist ein Super-Bowl-Werbespot. Anthropic, das Unternehmen hinter Claude, hat diese Woche 8 Millionen Dollar ausgegeben, um während des größten Sportereignisses Amerikas eine Botschaft zu

Weiterlesen »
Aktuelles
Moltbook: Was das KI-Agenten-Netzwerk über uns verrät

Seit einer Woche diskutiert die Tech-Welt über Moltbook, ein „Reddit für KI-Agenten“. Die Prämisse: Nur Bots dürfen posten, Menschen sind Zuschauer. Über eine Million Agenten haben sich angemeldet, sie philosophieren über Bewusstsein, beschweren sich über ihre „Menschen“ und haben angeblich sogar eine eigene Religion entwickelt. Andrej Karpathy, ehemaliger OpenAI-Forscher, nannte es „das unglaublichste Sci-Fi-artige Ding“, das er je gesehen habe.     Ich finde: Moltbook ist tatsächlich faszinierend. Aber aus völlig anderen Gründen, als die

Weiterlesen »
Aktuelles
Warum KI halluziniert: Das Symbol Grounding Problem erklärt

ChatGPT kann brillante Texte schreiben. Claude erklärt komplexe Zusammenhänge. Midjourney malt fotorealistische Bilder. Und trotzdem passiert in unseren Seminaren immer wieder dasselbe: Teilnehmer lassen sich hundert Kampagnen-Ideen generieren, und setzen keine einzige davon um. Nicht aus Faulheit. Sondern weil sie spüren, dass etwas fehlt. Dieses „Etwas“ hat einen Namen, der älter ist als ChatGPT: das Symbol Grounding Problem. Illustration von Vroni Hackl Der Comic oben bringt es auf den Punkt. Menschen übersetzen die Welt in

Weiterlesen »
KI im Einsatz
Der große Bild-KI-Vergleich 2026: Nano Banana Pro 4K, Flux.2, Midjourney V7, Adobe Firefly Image 5, Google Imagen 4, Seedream 4.5 4K, Qwen Image Edit, OpenAI Image-1.5, Reve und Z-Image im Test

Wie schon im letzten Jahr starten wir auch diesmal mit einem Klassiker: unserem großen Bild‑KI‑Vergleich. Dafür haben wir uns die aktuellsten Tools geschnappt und sie in echten Praxis‑Szenarien gegeneinander antreten lassen. Egal ob für ob Profi‑Designer, Marketer oder KI‑Neuling – wir zeigen euch, welche Anbieter/KI-Modelle 2026 vorne liegen und wo es noch hakt. Viel Spaß beim Anschauen und Vergleichen! Inhaltsverzeichnis Wie wir die Bild-KI-Tools getestet haben Für den Vergleich der verschiedenen Bild-KI-Tools haben wir jedem

Weiterlesen »
KI im Einsatz
Kinderbuch mit KI erstellen – so einfach gehts 2026

Live-Webinar-Alarm: Du liest gerade den Prozess zu Mathildas Buch, aber willst du Georg auch mal live über die Schulter schauen? Am 19.02. um 12:00 Uhr zeigen Georg & Vroni dir im kostenlosen Webinar die exakten Workflows und wie du Charakter-Konsistenz heute in Sekunden schaffst.    Hier klicken & kostenlos anmelden (inkl. Goodies!) Alle Jahre wieder… kommt nicht nur das Christkind, sondern auch ein neues Mathilda-Buch. Was als kleines Experiment begann, ist mittlerweile eine feste Tradition

Weiterlesen »
Aktuelles
Vibecoding: Wie wir 24 Web-Apps bauten, ohne programmieren zu können (und was du daraus lernst)

Update: Unser Adventskalender für 2025 ist leider schon vorbei, aber keine Sorge: im Dezember 2026 geht’s wieder los! 🎄✨ Wir sind Marketer. Wir sind Konzepter. Wir sind keine Software-Entwickler. Trotzdem haben wir dieses Jahr einen voll funktionsfähigen, interaktiven Online-Adventskalender gelauncht, der statt Schoki echte Browser-Apps, Spiele und allerhand anderes enthält.   Wie das geht? Mit einer Methode, die „Vibecoding“ genannt wird. Hier ist unser Werkstattbericht und warum dieses Experiment mehr ist als nur eine Spielerei.  

Weiterlesen »

🚀 Exklusive Back-to-School-Aktion 🚀

Spare 880 € beim KI-Marketing-Bootcamp!

Bring eine Kolleg*in mit und erhalte 50% Rabatt für deine Begleitung.

Nur für kurze Zeit und solange Kontingent reicht! Aktion endet am 16. September 2024.

Abonniere unseren Newsletter 🥳