WAN 2.2 schlägt Flux bei LoRAs klar

Georg war schon beim ersten Test von WAN 2.2 fasziniert. Wir hatten das Modell im KI Marketing Bootcamp bereits für Bild- und Videogenerierung ausprobiert – und die Resultate waren beeindruckend. Die Highlights dieser Tests haben wir bereits in zwei separaten Blogbeiträgen festgehalten:

 

 

Doch diesmal hat Georg den nächsten Schritt gewagt: Er hat mit WAN 2.2 sein ganz eigenes LoRA trainiert. Das Ergebnis: Bilder, die so detailreich und realistisch wirken, dass man zweimal hinschauen muss.

Inhaltsverzeichnis

Warum WAN 2.2 begeistert

 

WAN 2.2 stammt ursprünglich aus der Videogenerierung von Alibaba, hat sich aber schnell als beeindruckendes Werkzeug für die Bildgenerierung herausgestellt. Besonders in der Portraitfotografie spielt es seine Stärken aus: Prompts werden präzise umgesetzt, komplexe Szenen erscheinen stimmig, und feinste Details wie Hautstruktur oder winzige Merkmale – etwa Sommersprossen oder Leberflecken – werden konsistent dargestellt.

 

Ein weiterer Grund, warum WAN 2.2 so spannend ist: Es ist als Open-Source-Modell frei zugänglich. Jeder kann es herunterladen, erforschen und mit eigenen Daten weitertrainieren. Das eröffnet Kreativen und Entwicklern enorme Möglichkeiten, ohne auf geschlossene Systeme angewiesen zu sein – vom einfachen Testlauf bis hin zu maßgeschneiderten Modellen wie Georgs LoRA.

Der Weg zum eigenen LoRA

 

Für sein Experiment nutzte Georg die Kombination aus WAN 2.1 14B und dem Ostris AI Toolkit. Über rund 5.000 Trainingsschritte hinweg verfeinerte er die Ergebnisse, bis sie seinen Vorstellungen entsprachen. Die generierten Bilder haben Formate von 1440×1800 oder 1536×1536 Pixeln und stammen unverändert direkt aus dem Modell – kein Upscaling, keine Retusche, nur purer Output. Sein Ziel war klar: realistische Portraits und fiktive Avatare, die so wirken, als kämen sie aus einem professionellen Fotostudio.

Seit Georg sein eigenes LoRA hat …

 

… ist er mal Dinosaurier-Reiter, mal Astronaut – und ehrlich gesagt war das auch schon vor WAN 2.2 so. Der Unterschied: Mit seinem neuen WAN 2.2-LoRA wirkt das Ganze einfach noch stimmiger, detailreicher und insgesamt hochwertiger. Hautstrukturen, Licht und Hintergrund fügen sich nahtlos zusammen – egal, ob er in einer Mondstation posiert oder auf einem T-Rex durch die Prärie reitet.

 

Wenn du neugierig bist, was Georg sonst noch alles an LoRA-Bildern von sich generiert, schau gerne mal auf seinem LinkedIn-Profil vorbei – dort gibt’s eine ganze Galerie voller Ideen, Stile und verrückter Szenen.

Lernpunkte und kleine Hürden

 

Natürlich gab es auch Herausforderungen. WAN 2.2 verlangt nach leistungsstarker Hardware und zeigt sich in Hochformaten manchmal schwierig – quadratische Formate liefern derzeit die besten Ergebnisse. Außerdem tendiert das Modell dazu, Körperformen leicht zu verschlanken, was sich aber durch gezieltes Prompting ausgleichen lässt.

Fazit

 

WAN 2.2 ist schon jetzt ein beeindruckendes Werkzeug – und das nicht nur wegen der Bildqualität, sondern auch, weil es Open Source ist. Jeder kann es frei herunterladen, damit experimentieren und sogar eigene LoRAs trainieren. Diese Offenheit macht es besonders spannend für alle, die gerne kreativ arbeiten oder eigene Projekte umsetzen möchten.

 

Natürlich gibt es auch Grenzen: Das Generieren von Bildern braucht Geduld, denn WAN 2.2 verlangt nach ordentlich Rechenleistung. Wer keinen High-End-Rechner hat, muss entweder auf Cloud-Lösungen setzen oder mit längeren Wartezeiten leben.

 

Trotzdem: Wir können es jedem wärmstens empfehlen, WAN 2.2 einmal selbst auszuprobieren. Es ist ein tolles Gefühl, die eigenen Ideen in so hochwertiger Qualität zu sehen – und wer dabei Unterstützung braucht, darf sich jederzeit gerne an uns im KI Marketing Bootcamp wenden. Gemeinsam bringen wir dein erstes LoRA garantiert zum Laufen.

Bereit für den nächsten Schritt?

 

Die Tools entwickeln sich schnell, und jedes hat seine Besonderheiten.

 

Im KI Marketing Bootcamp gehen wir systematisch vor: Von der Strategie über die Tool-Auswahl bis zur konkreten Umsetzung. Du lernst nicht nur die Theorie, sondern arbeitest an echten Projekten – mit direktem Feedback und praktischen Workflows, die du sofort einsetzen kannst.

 

Was erwartet dich?

  • Praxisorientierte Anleitungen: Lerne, wie du KI-Tools strategisch einsetzt und das Beste aus ihnen herausholst

  • Erprobte Workflows: Vom Konzept bis zur Umsetzung – mit sofort anwendbaren Strategien

  • Individuelle Begleitung: Kleine Gruppen und persönliche Betreuung bei deinen Projekten

Deine Vorteile:

  • Learning by Doing: Entwickle eigene Kampagnen, die auf deine spezifischen Ziele zugeschnitten sind

  • Praxiswissen: Nutze echte Beispiele und Erfolgsstrategien für deine eigenen Projekte

  • 100% Online: Flexibel lernen, wann es in deinen Zeitplan passt

Für Unternehmen: Maßgeschneiderte Workshops für dein Marketing-Team.

Dein Expertenteam: Vroni Hackl und Georg Neumann – dein Expertenteam und deine Guides durch KI im Marketing.

Vroni forscht zu Sprachmodellen, Georg trainiert seit 2022 Bild-KI Modelle
Das könnte Dich auch interessieren:
KI im Einsatz
WAN 2.2 schlägt Flux bei LoRAs klar

Georg war schon beim ersten Test von WAN 2.2 fasziniert. Wir hatten das Modell im KI Marketing Bootcamp bereits für Bild- und Videogenerierung ausprobiert – und die Resultate waren beeindruckend. Die Highlights dieser Tests haben wir bereits in zwei separaten Blogbeiträgen festgehalten:   Unser Video-Blogbeitrag zu WAN 2.2 → Unser Bild-Blogbeitrag zu WAN 2.2 →   Doch diesmal hat Georg den nächsten Schritt gewagt: Er hat mit WAN 2.2 sein ganz eigenes LoRA trainiert. Das

Weiterlesen »
KI im Einsatz
Bildgenerierung mit WAN 2.2: Was das Open Source Modell drauf hat

Wenn du gerade von unserem WAN 2.2 Video‑Blogbeitrag kommst, weißt du schon, was dich erwartet.Wenn nicht – kein Problem. Hier bekommst du den zweiten Teil unseres Tests. Diesmal geht’s um die Bildgenerierung mit WAN 2.2, und die ist – kein Witz – richtig stark. Warum? Weil WAN 2.2 nicht nur in der Videogenerierung überzeugt, sondern auch bei Standbildern extrem abliefert: realistische Hauttöne, fotorealistisches Licht, klar definierte Materialien. Falls du erstmal das Video sehen willst: Hier

Weiterlesen »
KI im Einsatz
WAN 2.2: Wenn KI-Videos plötzlich wie echte Werbespots aussehen

Videos mit KI generieren – und das mit Open Source? WAN 2.2 von Alibaba hat da etwas vorgelegt, was überrascht. Das Modell beeindruckt nicht nur mit der Videoqualität, sondern auch bei der Bildgenerierung. Wir haben uns in diesem Beitrag die Videogenerierung mal genauer angeschaut und zeigen dir ein paar Beispiele, wie das Ganze aussehen kann – inklusive der passenden Prompts. Inhaltsverzeichnis Die wichtigsten Fakten zu WAN 2.2   Entwickler: Alibaba DAMO AcademyLizenz: Apache 2.0 (kommerzielle

Weiterlesen »
Aktuelles
ChatGPT 5 ist da: Das sind die coolsten neuen Features

Stell dir vor, jeder ChatGPT-Chat wäre ein kleiner persönlicher Assistent, der automatisch weiß, wann er schnell antworten soll und wann er tief nachdenken muss. Genau das ist ChatGPT 5!   Am 7. August 2025 hat OpenAI sein neuestes KI-Modell veröffentlicht – und diesmal ist alles anders. ChatGPT 5 wechselt automatisch zwischen „schnellem Chat“ und „tiefem Nachdenken“, je nachdem was du brauchst. Das heißt: Du musst nicht mehr zwischen verschiedenen Modellen hin- und herwechseln. Die KI

Weiterlesen »
Aktuelles
Nie wieder wichtige E-Mails vergessen: Mein n8n-Workflow für automatische E-Mail-Erinnerungen

Inhaltsverzeichnis Das Problem mit den E-mails   „Bei dem ganzen E-Mail-Verkehr geht mir manchmal einiges durch die Lappen. Ich hab die E-Mail noch im Kopf, dann kommen 10.000 andere Sachen rein und dann geht eine simple Aufgabe unter: auf die E-Mail antworten.“   So ging es Georg und Vroni vom KI Marketing Bootcamp – und ehrlich gesagt, wer kennt das nicht?   Bei einem Newsletter ist das vielleicht noch verschmerzbar. Aber wenn das bei Kunden

Weiterlesen »
KI im Einsatz
Ein Radieschen für 400 Token – Warum KI-Schulungen bei ChatGPT, Mistral & Co. Energie und Wasser sparen

Stell dir vor, jede KI-Anfrage wäre ein kleines Radieschen plus 10 Sekunden Netflix.   Mistral AI  hat vor kurzem eine faszinierende Rechnung aufgemacht: 400 Token Text generieren entspricht dem Wasserverbrauch eines winzigen Radieschens UND 10 Sekunden Video-Streaming auf Netflix. Klingt vernachlässigbar, oder?   Einzeln betrachtet ist es das auch. Problematisch wird es erst bei Millionen täglicher Anfragen weltweit. Dann wird aus einem Radieschen und 10 Netflix-Sekunden schnell ein ganzer Gemüsegarten plus Netflix-Marathons.   Die gute

Weiterlesen »

🚀 Exklusive Back-to-School-Aktion 🚀

Spare 880 € beim KI-Marketing-Bootcamp!

Bring eine Kolleg*in mit und erhalte 50% Rabatt für deine Begleitung.

Nur für kurze Zeit und solange Kontingent reicht! Aktion endet am 16. September 2024.

Abonniere unseren Newsletter 🥳