Stable Diffusion 2.0 Release – Fluch oder Segen?

Es ist erst ein paar Monate her, dass Stable Diffusion 1.0 Release neue Welten für die Kreativwelt geöffnet hat. Nun hat Stability.ai schon neue Stable Diffusion 2.0 Models veröffentlicht. Ist das Ganze nur ein aufgefrischtes Model oder ein wirklicher Gamechanger? In diesem Beitrag bekommt Ihr die wichtigsten Änderungen zusammengefasst.

First things first: Es formen sich zwei Hardliner-Fronten: Viele werden diesen Release hassen und einige feiern. Der Shitstorm ist bereits im Gange. Aber warum?

 

Stable Diffusion 2.0 Änderungen im Überblick

 

Stability.ai hat begonnen, die rechtlichen und ethischen Implikation in ihrem Model-Training zu berücksichtigen.

 

Die neu veröffentlichen Models wurden mit Datensätzen von Laion-5B generiert, welche dann noch weiter gefiltert wurden, um „adult content“ content zu unterbinden. Ein Not Safe For Work Filter eben. 

Das für uns als Marketer & Designer aber nicht weiter schlimm. Uns trifft etwas anderes: 

 

Kunststile und Trainingsdaten großer Kunstplattformen wurden beim Training bewusst von nutzbaren Klassen entkoppelt.

 

Ein mächtiges Werkzeug in der Bilderstellung war bis jetzt das Übertragen und Mischen von Kunststilen bekannter Künstler auf text2img- und img2img-Ergebnisse. Das gehört mit SD 2.0 in Teilen der Vergangenheit an. Es wird vermutet, dass die entsprechenden Datensätze bekannter Künstler zwar für das Training verwendet wurden, aber von nutzbaren Klassen entkoppelt sind. So sollen künftige Rechtsstreits und Sammelklagen unterbunden werden. Wer also gerne Bilder im Stil von Greg Rutkowski oder anderen beliebten prompt-Addons genutzt hat, wird  enttäuscht werden. 

Jetzt aber genug genörgelt – kommen wir zum Positiven:

 

Höhere Auflösung & bessere fotorealistische Ergebnisse

 

Die neuen Models wurden mit höher aufgelösten Trainingsdaten gefüttert – 768×768 ist das neue 512×512. Aber da endet die Reise nicht. Es wurde ein spezielles Upscaling Model vorgestellt, das auf eine 4-fach Vergrößerung ausgelegt ist. Das impliziert Auflösungen von 2048×2048 und höher! 
Hochauflösende Ergebnisse mit sehr vielen Details und fotorealistischem Look sind also schon jetzt mit überschaubarer Rechenleistung in kurzer Zeit erreichbar. 

 

Bild: Stability AI – https://github.com/Stability-AI/stablediffusion/blob/main/assets/stable-samples/txt2img/

 

Neues img2img Feature: depth2image

 

img2img hat ein neues bahnbrechendes Feature erhalten: Ein Model, das für formbeständige Ergebnisse sorgt. Das Input-Image wird dabei einer Depth of Field Analyse unterzogen und sorgt für atemberaubende Ergebnisse, die ihre Grundform beibehalten.

 

Bild: Stability AI – https://github.com/Stability-AI/stablediffusion/blob/main/assets/stable-samples/depth2img/
Bild: Stability AI – https://github.com/Stability-AI/stablediffusion/blob/main/assets/stable-samples/depth2img/

 

TLDR;

 

Stable Diffusion zeigt technisch sehr innovative Ansätze, die uns künftig noch bessere Ergebnisse liefern werden. Besonders, wenn es um fotorealistische Entwürfe geht. Auf der anderen Seite wird der Einsatz von spezifischen Stilen bekannter Künstler erschwert, was bei Illustrationen und Gemälden ganz neue Ansätze im prompt-design erfordern wird. Aber hey – dafür habt ihr ja uns. Bis wir herausgefunden haben, wie damit umzugehen ist, kann man jederzeit auf ältere Models zurückgreifen. Open Source sei Dank!

 

Du willst den Umgang mit Stable Diffusion 2.0 lernen?

 

Dann ab in unser KI Marketing Bootcamp.

Veronika Hackl, die Promptqueen bei der Texterstellung und Georg Neumann, Experte für Bilderstellung und Designworkflows mit KI, zeigen euch im Bootcamp den Umgang mit künstlicher Intelligenz im Marketing. Ihr überspringt dabei einfach die hunderten Stunden Einarbeitungszeit und Recherche, die wir uns freudig angetan haben und taucht direkt in die konkrete Nutzung ein.

Also let’s go!

 

 

SD 1.5 prompt Beitragsbild: party, balloons, 3d render, pixar, octane render, hyperrealistic, 8k, vibrant colors

Das könnte Dich auch interessieren:
Aktuelles
KI-Schulung für Unternehmen: Was macht eine wirklich gute KI-Weiterbildung aus? Erkenntnisse aus der Praxis

KI ist zweifellos einer der prägendsten Trends unserer Zeit. Die EU-Verordnung verpflichtet seit Februar Unternehmen dazu, ihre Mitarbeitenden im Umgang mit KI zu schulen, und 65% der Unternehmen nutzen laut McKinsey bereits regelmäßig Generative AI. Diese Zahlen zeigen: Das Thema KI-Training für Mitarbeiter ist längst in der Unternehmenswelt angekommen.   Doch je mehr wir uns mit professionellen KI-Schulungen beschäftigen, desto komplexer wird die Aufgabe. Wie vermittelt man ein Thema, das sich täglich weiterentwickelt? Wie schafft man

Weiterlesen »
KI im Einsatz
4 Methoden, 1 Ziel: KI Charakterkonsistenz im Praxis-Test – Midjourney v7, ChatGPT, FLUX.1 Kontext & LoRA-Training

Dein Avatar soll in jeder Szene gleich aussehen? Dann kennst du vermutlich das Problem: KI-Tools ‚vergessen‘ gerne, wie dein Charakter aussieht. Mal sind die Augen anders, mal die Frisur, mal die kompletten Gesichtszüge.   Die gute Nachricht: Es gibt bewährte Methoden für echte Charakterkonsistenz. Wir haben uns vier verschiedene Ansätze genauer angeschaut, getestet und zeigen dir anhand praktischer Beispiele, welche Methode wann funktioniert – und wo die Grenzen liegen. Inhaltsverzeichnis Die vier Wege zur Charakterkonsistenz

Weiterlesen »
KI News
In-Context Editing mit FLUX.1 Kontext: Eine neue Ära für die KI-gestützte Bildbearbeitung

Es gibt eine bemerkenswerte Entwicklung im Bereich der KI-Bildgenerierung, die Aufmerksamkeit verdient: FLUX.1 Kontext, entwickelt von den Black Forest Labs. Diese Technologie hat das Potenzial, die Arbeitsweise von Marketern im Umgang mit visuellen Inhalten nachhaltig zu beeinflussen. Inhaltsverzeichnis Der Kernansatz von FLUX.1 Kontext ist die „In-Context Image Generation“. Das bedeutet, Nutzer können KI-Bilder nicht nur auf Basis von Texteingaben, sondern auch unter Verwendung bestehender Bilder als Referenz erstellen. Ein wesentliches Merkmal ist die Möglichkeit, diese

Weiterlesen »
Aktuelles
Google I/O 2025: Imagen 4, Veo 3 & Flow – Die neue Generation der KI-Bild- und Videogenerierung

Google hat auf der I/O-Konferenz 2025 sein neues KI-Bildgeneratormodell Imagen 4 vorgestellt. Die Ankündigung markiert einen bedeutenden Fortschritt im Bereich der KI-gestützten Bildgenerierung und bringt zahlreiche Verbesserungen gegenüber dem Vorgänger Imagen 3. Das Modell wurde am 20. Mai 2025 offiziell enthüllt und ist seitdem in verschiedenen Google-Produkten und -Diensten integriert Inhaltsverzeichnis Google, Google, Google… Was gibt’s Neues nach der großen Konferenz?   Gerade erst hat Google wieder die Tech-Welt in Atem gehalten: Nach der I/O-Konferenz

Weiterlesen »
KI im Einsatz
Tagebuch einer Lernreise: Wie ich mit KI und n8n Prozesse automatisiere

Inhaltsverzeichnis Moin!   Ich bin Kathi, Teil des KI Marketing Bootcamps, und setze mich gerade intensiv damit auseinander, wie man sich mit Automatisierungen das Leben leichter machen kann.   Aktuell tauche ich tief in das Tool n8n ein – ein mächtiges No-Code-Werkzeug, mit dem sich wiederkehrende Abläufe im Marketing-Alltag automatisieren lassen. Unterstützt werde ich dabei von Marcel, der mir als Coach zeigt, wie man Prozesse strukturiert analysiert, visualisiert und schließlich so aufbaut, dass sie uns

Weiterlesen »
Aktuelles
Adobe Firefly Image 4: Qualität besser – aber viele runzeln die Stirn

„Adobe holt auf – aber reicht das?“ Georg hat’s letzte Woche auf LinkedIn treffend formuliert. Das neue Image 4 Modell liefert sichtbar bessere Ergebnisse – Gesichter, Hände, Details: alles deutlich realistischer. Aber dann kommt der Moment, in dem viele unwillkürlich die Stirn runzeln: Nur zehn Bilder pro Monat kostenlos, auch für zahlende Creative-Cloud-Nutzer:innen. Wer mehr will – oder Zugang zu den neuen externen Modellen wie Google Imagen oder OpenAI Image 1 – darf zusätzlich zahlen.

Weiterlesen »

🚀 Exklusive Back-to-School-Aktion 🚀

Spare 880 € beim KI-Marketing-Bootcamp!

Bring eine Kolleg*in mit und erhalte 50% Rabatt für deine Begleitung.

Nur für kurze Zeit und solange Kontingent reicht! Aktion endet am 16. September 2024.

Abonniere unseren Newsletter 🥳