Bildgenerierung mit WAN 2.2: Was das Open Source Modell drauf hat

Wenn du gerade von unserem WAN 2.2 Video‑Blogbeitrag kommst, weißt du schon, was dich erwartet.
Wenn nicht – kein Problem. Hier bekommst du den zweiten Teil unseres Tests. Diesmal geht’s um die Bildgenerierung mit WAN 2.2, und die ist – kein Witz – richtig stark.

Warum? Weil WAN 2.2 nicht nur in der Videogenerierung überzeugt, sondern auch bei Standbildern extrem abliefert: realistische Hauttöne, fotorealistisches Licht, klar definierte Materialien.

Falls du erstmal das Video sehen willst: Hier geht’s zum Beitrag →

Und jetzt viel Spaß mit dem praktischen Deep Dive in die Bildgenerierung mit WAN 2.2 – inklusive Beispielen, Setup und echten Learnings aus dem Test.

Inhaltsverzeichnis

Kurz vorgestellt: Was ist WAN 2.2?

 

WAN 2.2 ist ein generatives Modell für Video und Standbild. Für Fotos wirkt es erstaunlich „echt“: Hauttöne bleiben natürlich, Licht verhält sich plausibel und Materialien zeigen feine Texturen. Der Look ist eher neutral‑fotografisch und funktioniert deshalb für Porträt, Produkt und Interior gleichermaßen. Die Modelle stehen unter Apache 2.0 – das bedeutet breite kommerzielle Nutzungsrechte (Marken‑ und Persönlichkeitsrechte sind natürlich weiterhin zu beachten). In der Praxis arbeiten wir dafür am liebsten mit ComfyUI.

So nutzt du WAN 2.2 mit ComfyUI:

 

Du brauchst lediglich ComfyUI, die WAN 2.2‑Modelle und einen fertigen Workflow. Installiere ComfyUI, lade die Modelldateien von der offiziellen WAN‑Seite und öffne anschließend unseren Text‑to‑Image-Workflow per Drag‑&‑Drop. Tipp: Starte mit einer moderaten Bildgröße, zum Beispiel 1024 px Kantenlänge, und erhöhe danach schrittweise.

 

 

ComfyUI sucht Modelle in Unterordnern wie models/unet/, models/vae/ und models/text_encoders/. Für die großen 14B‑Modelle brauchst du High‑Noise und Low‑Noise – so erhältst du stabile Formen und feine Details. 

Showcase: Was alles möglich ist

<nerdmodus>
Unsere Bildtestreihe entstand mit ComfyUI und dem oben verlinkten Workflow und Settings. Erstes Sampling mit dem High Noise Model, das zweite mit Low Noise. Durch diese Kombination entstehen Bilder, die beim Thema Detailreichtum und Korrektheit von Details seines Gleichen suchen.

Generiert wurden die Bilder mit einer Auflösung von 1440×1800 Pixel – und jetzt kommts: Jedes Bild braucht dabei in diesen Settings 8 Minuten auf einer RTX 6000 Ada. Gerade beim Thema Performance ist noch Luft nach oben – aber die Open Source Community arbeitet bereits daran und verfolgt gerade verschiedene Ansätze mit Lightning LoRAs, Sageattention-Optimierung und anderen innovativen Workflows. Auch die Kombination aus Qwen Image für ersten Sampling Step und zweitem Sampling-Step mit WAN 2.2 Low Noise sieht bisher vielversprechend aus. 

</nerdmodus>

1) Porträtfotografie – natürlich & detailliert

 

WAN 2.2 kann Haut glaubwürdig wiedergeben. Nutze weiches Fensterlicht oder eine große Softbox und bleib beim Stil sparsam.

2) Lifestyle & Performance

3) Interior & Architektur

4) Natur, Landschaft & Luftaufnahmen

5) Makro & Material

6) Sci-Fi, Space & Concept

7) Illustration, Branding & Grafik

Heads-up: Georgs LoRA Experimente auf Basis von WAN 2.2 liefern auffallend konsistente Porträts. Nächstes Mal verraten wir Training, Prompt-Rezepte und Best Practices. (Link folgt)

Unser Expertenfazit

 

WAN 2.2 setzt in der reinen Bildgenerierung ein starkes Zeichen: Porträts überzeugen mit natürlicher Haut und glaubwürdigen Catchlights, Produkte zeigen saubere Kanten und kontrollierte Reflexe, Materialien wirken dank klarer Mikrostruktur sehr real. Der neutrale Fotolook macht die Ergebnisse vielseitig einsetzbar – vom Webshop bis zum Editorial. Die Kehrseite: Die großen Modelle sind rechenintensiv und fühlen sich aktuell am besten in ComfyUI an. Wer sofort testen möchte, lädt die WAN‑Modelle von der offiziellen Seite (Modelle & Beispiele → https://comfyanonymous.github.io/ComfyUI_examples/wan22/) und öffnet unseren Text‑to‑Image‑Workflow per Drag‑&‑Drop (Workflow → https://marketing-ki.de/wp-content/uploads/2025/08/Wan2.2_Text-To-Image.json). Einmal starten, mit moderater Auflösung beginnen – fertig.

Unsere Schulungsangebote

 

Wir arbeiten gerade an einer neuen Ausbildung zum Diffusion Engineer. Wenn du also richtig tief abgeholt werden willst, melde dich schonmal vorab per Email. Bis dahin bieten wir individuelle Unternehmens-Seminare an, bei denen wir auch ComfyUI Schulungen für ganze Design- und Marketingteams durchführe. Wenn du also wissen willst wie man mit WAN 2.2 eigene Bilder produzieren, können wir für dich und deine Abteilung ein individuelles Seminar konzipieren. Die Erfahrungen aus 100+ Seminaren in deutschen Organisationen lügen nicht. Hier findest du alle Infos und Anfragemöglichkeiten zu unseren individuellen KI Fortbildungen und Seminaren für Unternehmen.

 

Fazit

 

WAN 2.2 bringt Standbilder sehr nah an professionelle Fotografie: natürliche Haut, plausibles Licht, saubere Kanten und feine Mikrotexturen – bei einem neutralen, gut steuerbaren Look. Porträt, Produkt, Material, Interior, Food und Makro gelingen mit wenigen, klaren Angaben zu Licht, Optik (z. B. 35 mm, geringe Schärfentiefe) und Material.

 

Für die Praxis heißt das: Mit ComfyUI und unserem Workflow kommst du schnell (Zeit ist relativ) vom Prompt zur Datei; dank Apache 2.0 sind die Ergebnisse auch kommerziell nutzbar (Rechte Dritter beachten). Und falls du Setup, Qualität oder Tempo ausreizen willst, unterstützen wir dich gern mit Schulungen.

Bereit für den nächsten Schritt?

 

Die Tools entwickeln sich schnell, und jedes hat seine Besonderheiten.

 

Im KI Marketing Bootcamp gehen wir systematisch vor: Von der Strategie über die Tool-Auswahl bis zur konkreten Umsetzung. Du lernst nicht nur die Theorie, sondern arbeitest an echten Projekten – mit direktem Feedback und praktischen Workflows, die du sofort einsetzen kannst.

 

Was erwartet dich?

  • Praxisorientierte Anleitungen: Lerne, wie du KI-Tools strategisch einsetzt und das Beste aus ihnen herausholst

  • Erprobte Workflows: Vom Konzept bis zur Umsetzung – mit sofort anwendbaren Strategien

  • Individuelle Begleitung: Kleine Gruppen und persönliche Betreuung bei deinen Projekten

Deine Vorteile:

  • Learning by Doing: Entwickle eigene Kampagnen, die auf deine spezifischen Ziele zugeschnitten sind

  • Praxiswissen: Nutze echte Beispiele und Erfolgsstrategien für deine eigenen Projekte

  • 100% Online: Flexibel lernen, wann es in deinen Zeitplan passt

Für Unternehmen: Maßgeschneiderte Workshops für dein Marketing-Team.

Dein Expertenteam: Vroni Hackl und Georg Neumann – dein Expertenteam und deine Guides durch KI im Marketing.

Vroni forscht zu Sprachmodellen, Georg trainiert seit 2022 Bild-KI Modelle
Das könnte Dich auch interessieren:
Aktuelles
Warum KI Weiterbildung jetzt? Skepsis als gesunder Kompass

Stell Dir vor, es ist 2019, und jemand sagt Dir, dass in fünf Jahren die Hälfte aller Marketingprofis täglich mit Künstlicher Intelligenz arbeitet. Hättest Du das geglaubt? Wahrscheinlich nicht. Doch genau das ist heute Realität: KI-Tools wie ChatGPT, Microsoft Copilot und viele mehr prägen unseren Arbeitsalltag zunehmend.   Dabei schwanken viele von uns zwischen Begeisterung und Überforderung: Wie nutze ich KI sinnvoll? Wie positioniere ich mich und mein Team im digitalen Wandel? Genau hier setzt

Weiterlesen »
KI im Einsatz
KI Weiterbildung im Marketing: Spezialisierte Online-Kurse des KI Marketing Bootcamps

KI Weiterbildung: KI Marketing Bootcamp startet spezialisiertes Kursangebot für Marketing-Profis   Erbendorf, 12. September 2025 – Das KI Marketing Bootcamp stellt sein Angebot neu auf und startet spezialisierte KI Weiterbildungen, auch in Kooperation mit der IHK. Das Schulungshaus reagiert damit auf den klaren Bedarf des Marktes nach tiefgehendem Fachwissen anstelle von allgemeinen Überblicken. Die neuen, praxisnahen Online-Kurse sind exakt auf die unterschiedlichen Rollen im modernen Marketing zugeschnitten. Ab sofort buchbar sind die Formate AI Content

Weiterlesen »
KI im Einsatz
Die Zukunft der KI in Europa spricht Schweizerdeutsch: APERTUS

Hoi zäme! Während vielerorts noch darüber diskutiert wird, ob KI besser abgeschottet oder komplett transparent sein soll, haben die Schweizer Forschenden einen klaren Weg eingeschlagen: Sie setzen auf Offenheit. Mit APERTUS stellen ETH Zürich, EPFL und CSCS ein neues mehrsprachiges Sprachmodell vor, das Open Source verfügbar sit. Sie setzen damit ein starkes Signal für vertrauenswürdige KI in Europa. Das Modell kann wirklich frei ausprobiert, heruntergeladen und für beliebige Zwecke eingesetzt werden, sei es zum Experimentieren

Weiterlesen »
KI im Einsatz
Content Marketing mit KI – Das Buch von Vroni & Georg

Es ist da! Nach Monaten intensiver Arbeit haben Georg und Vroni ihr neues Buch veröffentlicht: Content Marketing mit KI. Ab sofort erhältlich bei Amazon und Thalia. Warum das wichtig ist? Weil Content Marketing aktuell seinen „Epic Split“ erlebt – zwischen kreativer Authentizität und der Notwendigkeit, Content immer schneller und effizienter zu produzieren. Genau hier setzt das Buch an: Es zeigt, wie du generative KI nicht als Hype-Tool verstehst, sondern als praxisnahen Begleiter für echte Wirkung

Weiterlesen »
KI im Einsatz
Nano Banana aka Gemini 2.5 Flash Image schlägt Wellen im Internet – und das völlig zu Recht!

Was hinter den mysteriösen drei Bananen-Emojis von Googles CEO steckte, hat sich endlich als eine der spannendsten Entwicklungen in der KI-Bildbearbeitung entpuppt. Nano Banana, offiziell bekannt als Gemini 2.5 Flash Image, verändert gerade die Art, wie wir Bilder bearbeiten. Inhaltsverzeichnis Was ist Nano Banana eigentlich?   Kennst du das Gefühl, wenn du ein Foto hast und denkst: „Wenn ich nur dieses eine Detail ändern könnte…“? Genau hier kommt Nano Banana ins Spiel – und nein,

Weiterlesen »
KI im Einsatz
WAN 2.2 schlägt Flux bei LoRAs klar

Georg war schon beim ersten Test von WAN 2.2 fasziniert. Wir hatten das Modell im KI Marketing Bootcamp bereits für Bild- und Videogenerierung ausprobiert – und die Resultate waren beeindruckend. Die Highlights dieser Tests haben wir bereits in zwei separaten Blogbeiträgen festgehalten:   Unser Video-Blogbeitrag zu WAN 2.2 → Unser Bild-Blogbeitrag zu WAN 2.2 →   Doch diesmal hat Georg den nächsten Schritt gewagt: Er hat mit WAN 2.2 sein ganz eigenes LoRA trainiert. Das

Weiterlesen »

🚀 Exklusive Back-to-School-Aktion 🚀

Spare 880 € beim KI-Marketing-Bootcamp!

Bring eine Kolleg*in mit und erhalte 50% Rabatt für deine Begleitung.

Nur für kurze Zeit und solange Kontingent reicht! Aktion endet am 16. September 2024.

Abonniere unseren Newsletter 🥳