ControlNet macht Stable Diffusion noch mächtiger

Vor ein paar Tagen wurde ControlNet veröffentlicht. Eine neurale Netzwerkstruktur, die latent diffusion Modellen extra Konditionen hinzufügt. Den Techtalk bei Seite geschoben: Stable Diffusion kann jetzt um einiges mehr. 

 

Durch das Hinzufügen der verschiedenen Konditionen können jetzt per img2img Verständnis für menschliche Posen, Formen, Skizzen und sogar einzelne Flächen implementiert werden, wodurch sich ganz neue Möglichkeiten eröffnen. 

 

 

Stable Diffusion ist ein ganzes Stück schlauer geworden.

Bildinhalte austauschen?
Easy mit Canny Edge.

 

Pix2Pix war gestern – durch die Edge Maps wird der Original Bildaufbau beibehalten und durch den Prompt ersetzt.

Interiordesign eines Raumes anpassen?
Ein Klick mit Line Maps.

 

Besonders für Architekten und Inneneinrichter höchst spannend. 

Stilisierung von Bildern?
Noch viel besser als vorher.

 

 

Die HED Maps erlauben es möglichst viele markante Details aus dem Ursprungsbild in neue Ergebnisse mit anderen Stilen zu übertragen. 

Bilder aus Skizzen erstellen?
Unglaubliche Ergebnisse.

 

 

Das ging schon früher mit img2img – aber nun auch auf einem ganz neuen Level. 

Skizzen aus Bildern erstellen, aus denen dann wiederum neue Bilder entstehen?
Faulheit siegt!

 


Der Usecase aus der Github-Page spricht für sich.

Bilder aus Skizzen erstellen?
Unglaubliche Ergebnisse.

 

 

 

Das ging schon früher mit img2img – aber nun auch auf einem ganz neuen Level. 

Menschliche Posen aus einem Bild auf neue übertragen? ENDLICH! Das openpose Model machts möglich.

 

 

 

Nächster Step: Hände 🥳 

Natürlich habe ich das Ganze für euch direkt getestet. 

Testreihe im Scribble Mode

Stable Diffusion – Model: Analog Diffusion (SD 1.5)

Testreihe mit Openpose Model

Stable Diffusion – Model: Analog Diffusion (SD 1.5)

Du willst auch das Skillset rund um Stable Diffusion erlernen? Dann komm in unser Bootcamp oder sprich uns zu einer individuellen Beratung an.

Wer hat's geschrieben?

Das könnte Dich auch interessieren:
KI News
Midjourney V8.1: 2026 endlich in 2025 angekommen

Midjourney V8.1 ist da. Hände funktionieren, Gesichter sitzen, die Ästhetik stimmt wieder. Willkommen im Jahr 2025 – nur eben mit zwölf Monaten Verspätung. Während Midjourney zwei Releases brauchte, um den eigenen Vorgänger V7 wieder einzuholen, haben Nano Banana 2 und GPT-Image-2 die Messlatte in praktisch jeder marketingrelevanten Kategorie nach oben geschoben. Die These: Midjourney V8.1 ist ein solides Comeback – aber kein Anschluss an die Spitze. Und genau darin liegt eine Lektion über den Unterschied

Weiterlesen »
KI News
ChatGPT 5.5 2026: Wie OpenAI vom Chatbot zur Arbeitsoberfläche wechselt

ChatGPT ist im Frühjahr 2026 nicht einfach besser geworden. Das Produkt wird zu etwas anderem. Innerhalb einer Woche hat OpenAI Workspace Agents (22. April), GPT-5.5 (23. April), Images 2.0 (21. April) und Fast Answers (22. April) ausgerollt, dazu kommt das verbesserte Memory aus dem Januar. Wer all das nebeneinanderlegt, sieht keine zufällige Update-Welle, sondern eine strategische Verschiebung. Weg vom Antwortgenerator, hin zur Arbeitsoberfläche für Wissensarbeit. Wir haben uns die Releases angeschaut. Das Muster hinter den

Weiterlesen »
KI im Einsatz
Aus einem Blogartikel wurde ein Spiel: Wie wir die KI-Ostersuche gebaut haben

Zwölf Nudges, zwölf Ostereier, eine Wiese. Das war die ganze Idee. Kein Konzeptpapier, kein Briefing-Marathon. Eine Frage an Claude Code: „Ostern steht vor der Tür. Was machen wir mit den 12 KI-Nudges?“ Der Blogartikel war fertig. Gut recherchiert, mit Praxisbezug, mit Substanz. Aber eben: ein Blogartikel. Scrollbar. Lesbar. Vergessbar. Die Frage war nicht „Wie kriegen wir mehr Reichweite?“, sondern: Gibt es ein Format, das die Nudges erlebbar macht, statt sie nur aufzuzählen? Von der Idee zum

Weiterlesen »
Aktuelles
Nudging und KI: Warum sanfte Stupser beim Lernen mit KI nicht reichen

Nudging ist eines dieser Konzepte, die so elegant klingen, dass man sie sofort auf alles anwenden will. Ein kleiner Stupser in die richtige Richtung, eine geschickte Voreinstellung, eine kaum merkliche Veränderung der Umgebung, und schon verhalten sich Menschen besser. Funktioniert in Kantinen, beim Organspende-Register, bei Cookie-Bannern. Warum nicht auch beim Lernen mit KI? Ich höre die Idee regelmäßig in Seminaren, besonders von Führungskräften: „Können wir nicht einfach ein paar Nudges einbauen? Ein Pop-up, das fragt:

Weiterlesen »
KI im Einsatz
12 KI-Nudges: Kleine Stupser für mehr KI-Praxis

KI-Nudges, um besser in die Praxis zu kommen! Doch was ist das überhaupt? Nudges sind kleine Schubser für dein Verhalten. Man kennt sie zum Beispiel aus der Kantine: Wenn statt dem Schnitzel der Salat vorne steht, kann das ein geplanter Schubser sein, damit du zur gesünderen Wahl greifst. Ich habe mir überlegt, mit welchen Nudges man die praktische Nutzung von KI verbessern kann. Im Nudging-Artikel habe ich beschrieben, warum klassisches Nudging beim Lernen mit KI

Weiterlesen »
KI im Einsatz
Vibecoding im Marketing: Warum Marketer jetzt programmieren lernen, ohne programmieren zu lernen

Vor drei Monaten hätte ich nicht geglaubt, dass ich das schreibe: Ich baue gerade eine Browser Extension. Sie erfasst, wie Menschen KI generierte Texte editieren. Ein Forschungstool für meine Arbeit. Ich kann nicht programmieren. Ich habe nicht programmieren gelernt. Und trotzdem funktioniert das Ding. Der Grund hat einen Namen, der gerade durch die Tech Welt geistert: Agent Coding. Oder, wie Andrej Karpathy es Anfang 2025 nannte: Vibecoding. Die Idee ist simpel und radikal zugleich. Du

Weiterlesen »

Hey Du. Willst du AI Content Manager werden?

Dann ab ins kostenfreie Info-Webinar am 25.03. um 12:00 Uhr. 

🚀 Exklusive Back-to-School-Aktion 🚀

Spare 880 € beim KI-Marketing-Bootcamp!

Bring eine Kolleg*in mit und erhalte 50% Rabatt für deine Begleitung.

Nur für kurze Zeit und solange Kontingent reicht! Aktion endet am 16. September 2024.

Abonniere unseren Newsletter 🥳