Stable Diffusion 2.0 Release – Fluch oder Segen?

Es ist erst ein paar Monate her, dass Stable Diffusion 1.0 Release neue Welten für die Kreativwelt geöffnet hat. Nun hat Stability.ai schon neue Stable Diffusion 2.0 Models veröffentlicht. Ist das Ganze nur ein aufgefrischtes Model oder ein wirklicher Gamechanger? In diesem Beitrag bekommt Ihr die wichtigsten Änderungen zusammengefasst.

First things first: Es formen sich zwei Hardliner-Fronten: Viele werden diesen Release hassen und einige feiern. Der Shitstorm ist bereits im Gange. Aber warum?

 

Stable Diffusion 2.0 Änderungen im Überblick

 

Stability.ai hat begonnen, die rechtlichen und ethischen Implikation in ihrem Model-Training zu berücksichtigen.

 

Die neu veröffentlichen Models wurden mit Datensätzen von Laion-5B generiert, welche dann noch weiter gefiltert wurden, um „adult content“ content zu unterbinden. Ein Not Safe For Work Filter eben. 

Das für uns als Marketer & Designer aber nicht weiter schlimm. Uns trifft etwas anderes: 

 

Kunststile und Trainingsdaten großer Kunstplattformen wurden beim Training bewusst von nutzbaren Klassen entkoppelt.

 

Ein mächtiges Werkzeug in der Bilderstellung war bis jetzt das Übertragen und Mischen von Kunststilen bekannter Künstler auf text2img- und img2img-Ergebnisse. Das gehört mit SD 2.0 in Teilen der Vergangenheit an. Es wird vermutet, dass die entsprechenden Datensätze bekannter Künstler zwar für das Training verwendet wurden, aber von nutzbaren Klassen entkoppelt sind. So sollen künftige Rechtsstreits und Sammelklagen unterbunden werden. Wer also gerne Bilder im Stil von Greg Rutkowski oder anderen beliebten prompt-Addons genutzt hat, wird  enttäuscht werden. 

Jetzt aber genug genörgelt – kommen wir zum Positiven:

 

Höhere Auflösung & bessere fotorealistische Ergebnisse

 

Die neuen Models wurden mit höher aufgelösten Trainingsdaten gefüttert – 768×768 ist das neue 512×512. Aber da endet die Reise nicht. Es wurde ein spezielles Upscaling Model vorgestellt, das auf eine 4-fach Vergrößerung ausgelegt ist. Das impliziert Auflösungen von 2048×2048 und höher! 
Hochauflösende Ergebnisse mit sehr vielen Details und fotorealistischem Look sind also schon jetzt mit überschaubarer Rechenleistung in kurzer Zeit erreichbar. 

 

Bild: Stability AI – https://github.com/Stability-AI/stablediffusion/blob/main/assets/stable-samples/txt2img/

 

Neues img2img Feature: depth2image

 

img2img hat ein neues bahnbrechendes Feature erhalten: Ein Model, das für formbeständige Ergebnisse sorgt. Das Input-Image wird dabei einer Depth of Field Analyse unterzogen und sorgt für atemberaubende Ergebnisse, die ihre Grundform beibehalten.

 

Bild: Stability AI – https://github.com/Stability-AI/stablediffusion/blob/main/assets/stable-samples/depth2img/
Bild: Stability AI – https://github.com/Stability-AI/stablediffusion/blob/main/assets/stable-samples/depth2img/

 

TLDR;

 

Stable Diffusion zeigt technisch sehr innovative Ansätze, die uns künftig noch bessere Ergebnisse liefern werden. Besonders, wenn es um fotorealistische Entwürfe geht. Auf der anderen Seite wird der Einsatz von spezifischen Stilen bekannter Künstler erschwert, was bei Illustrationen und Gemälden ganz neue Ansätze im prompt-design erfordern wird. Aber hey – dafür habt ihr ja uns. Bis wir herausgefunden haben, wie damit umzugehen ist, kann man jederzeit auf ältere Models zurückgreifen. Open Source sei Dank!

 

Du willst den Umgang mit Stable Diffusion 2.0 lernen?

 

Dann ab in unser KI Marketing Bootcamp.

Veronika Hackl, die Promptqueen bei der Texterstellung und Georg Neumann, Experte für Bilderstellung und Designworkflows mit KI, zeigen euch im Bootcamp den Umgang mit künstlicher Intelligenz im Marketing. Ihr überspringt dabei einfach die hunderten Stunden Einarbeitungszeit und Recherche, die wir uns freudig angetan haben und taucht direkt in die konkrete Nutzung ein.

Also let’s go!

 

 

SD 1.5 prompt Beitragsbild: party, balloons, 3d render, pixar, octane render, hyperrealistic, 8k, vibrant colors

Das könnte Dich auch interessieren:
KI im Einsatz
WAN 2.2 schlägt Flux bei LoRAs klar

Georg war schon beim ersten Test von WAN 2.2 fasziniert. Wir hatten das Modell im KI Marketing Bootcamp bereits für Bild- und Videogenerierung ausprobiert – und die Resultate waren beeindruckend. Die Highlights dieser Tests haben wir bereits in zwei separaten Blogbeiträgen festgehalten:   Unser Video-Blogbeitrag zu WAN 2.2 → Unser Bild-Blogbeitrag zu WAN 2.2 →   Doch diesmal hat Georg den nächsten Schritt gewagt: Er hat mit WAN 2.2 sein ganz eigenes LoRA trainiert. Das

Weiterlesen »
KI im Einsatz
Bildgenerierung mit WAN 2.2: Was das Open Source Modell drauf hat

Wenn du gerade von unserem WAN 2.2 Video‑Blogbeitrag kommst, weißt du schon, was dich erwartet.Wenn nicht – kein Problem. Hier bekommst du den zweiten Teil unseres Tests. Diesmal geht’s um die Bildgenerierung mit WAN 2.2, und die ist – kein Witz – richtig stark. Warum? Weil WAN 2.2 nicht nur in der Videogenerierung überzeugt, sondern auch bei Standbildern extrem abliefert: realistische Hauttöne, fotorealistisches Licht, klar definierte Materialien. Falls du erstmal das Video sehen willst: Hier

Weiterlesen »
KI im Einsatz
WAN 2.2: Wenn KI-Videos plötzlich wie echte Werbespots aussehen

Videos mit KI generieren – und das mit Open Source? WAN 2.2 von Alibaba hat da etwas vorgelegt, was überrascht. Das Modell beeindruckt nicht nur mit der Videoqualität, sondern auch bei der Bildgenerierung. Wir haben uns in diesem Beitrag die Videogenerierung mal genauer angeschaut und zeigen dir ein paar Beispiele, wie das Ganze aussehen kann – inklusive der passenden Prompts. Inhaltsverzeichnis Die wichtigsten Fakten zu WAN 2.2   Entwickler: Alibaba DAMO AcademyLizenz: Apache 2.0 (kommerzielle

Weiterlesen »
Aktuelles
ChatGPT 5 ist da: Das sind die coolsten neuen Features

Stell dir vor, jeder ChatGPT-Chat wäre ein kleiner persönlicher Assistent, der automatisch weiß, wann er schnell antworten soll und wann er tief nachdenken muss. Genau das ist ChatGPT 5!   Am 7. August 2025 hat OpenAI sein neuestes KI-Modell veröffentlicht – und diesmal ist alles anders. ChatGPT 5 wechselt automatisch zwischen „schnellem Chat“ und „tiefem Nachdenken“, je nachdem was du brauchst. Das heißt: Du musst nicht mehr zwischen verschiedenen Modellen hin- und herwechseln. Die KI

Weiterlesen »
Aktuelles
Nie wieder wichtige E-Mails vergessen: Mein n8n-Workflow für automatische E-Mail-Erinnerungen

Inhaltsverzeichnis Das Problem mit den E-mails   „Bei dem ganzen E-Mail-Verkehr geht mir manchmal einiges durch die Lappen. Ich hab die E-Mail noch im Kopf, dann kommen 10.000 andere Sachen rein und dann geht eine simple Aufgabe unter: auf die E-Mail antworten.“   So ging es Georg und Vroni vom KI Marketing Bootcamp – und ehrlich gesagt, wer kennt das nicht?   Bei einem Newsletter ist das vielleicht noch verschmerzbar. Aber wenn das bei Kunden

Weiterlesen »
KI im Einsatz
Ein Radieschen für 400 Token – Warum KI-Schulungen bei ChatGPT, Mistral & Co. Energie und Wasser sparen

Stell dir vor, jede KI-Anfrage wäre ein kleines Radieschen plus 10 Sekunden Netflix.   Mistral AI  hat vor kurzem eine faszinierende Rechnung aufgemacht: 400 Token Text generieren entspricht dem Wasserverbrauch eines winzigen Radieschens UND 10 Sekunden Video-Streaming auf Netflix. Klingt vernachlässigbar, oder?   Einzeln betrachtet ist es das auch. Problematisch wird es erst bei Millionen täglicher Anfragen weltweit. Dann wird aus einem Radieschen und 10 Netflix-Sekunden schnell ein ganzer Gemüsegarten plus Netflix-Marathons.   Die gute

Weiterlesen »

🚀 Exklusive Back-to-School-Aktion 🚀

Spare 880 € beim KI-Marketing-Bootcamp!

Bring eine Kolleg*in mit und erhalte 50% Rabatt für deine Begleitung.

Nur für kurze Zeit und solange Kontingent reicht! Aktion endet am 16. September 2024.

Abonniere unseren Newsletter 🥳