Ein kräftiger Baum mit vielen Verästelungen in Aquarell

Was ändert sich mit GPT-4?

Seit Monaten sprechen alle davon: Wenn GPT-4 kommt, ändert sich alles. Wir haben für euch geprüft, was dran ist und was sich wirklich verbessert hat. So viel vorneweg: GPT-4 ist wirklich mächtig. Aber was ändert sich mit GPT-4 konkret? 

 

GPT-4 ist multimodal

Im Gegensatz zu den Vorgänger-Modellen ist GPT-4 ein multimodales Modell. Das heißt, es kann Input verschiedener Art verarbeitet. Zum Beispiel Bilder. Man fügt ein Bild ein und bekommt Output aus dem System. Eine konkrete Anwendung für Menschen in der Kommunikationsbranche: Du zeichnest per Hand wireframes, fütterst es GPT-4 und bekommst Inhalte sowie Code aus GPT-4. Aktuell ist multimodaler Input aber erst für ForscherInnen verfügbar. Fazit: Multimodalität eröffnet neue Möglichkeiten für Marketingmaßnahmen, die visuelle Elemente und Text kombinieren. Bei Aleph Alpha (aleph-alpha.com) könnt ihr übrigens schon seit Monaten multimodal Inhalte verarbeiten. Das ist ein deutsches Unternehmen, deren Interface wir auch gerne nutzen.

 

GPT-4 beherrscht Programmiersprachen

Programmierer als Gate-Keeper fürs Marketing, diese Rolle wird sich verschieben. Denn mit den Codex-Sprachmodellen hatte man schon die Möglichkeit auf Basis eines Inputs in Form eines natürlichen Texts Code erzeugen zu lassen. Das kann nun auch GPT-4. Damit können Marketer sagen: „Schau, ich habe meine Idee schon einmal mit GPT-4 in einer Programmiersprache nach Wahl als Entwurf vorbereitet. Was hältst du davon?“ Für mich ändert das einiges!

 

GPT-4 ist kompetenter

GPT-4 hat den Sommelier-Test bestanden. Ich wusste ja nicht einmal, dass es hier ein offizielles Prüfungsschema gibt… Aber ja, GPT-4 ist kompetent in vielen Wissens- und Fachdomänen. Hier ein Vergleich mit der Leistung von GPT-3.5: 

Vergleich mit der Leistung von GPT-3.5 in standardisierten Tests
Vergleich mit der Leistung von GPT-3.5 in standardisierten Tests

 

GPT-4 beherrscht längere Inhalte 

GPT-4 kann sehr viel längere Texte verarbeiten, sowohl als Prompt, als auch als Output. In Zahlen: Bei GPT-3 war bisher bei 4.000 Tokens Schluss, das entspricht Pi mal Daumen 2.500 Wörtern. GPT-4 schafft 32.000 Tokens. Das heißt, ihr könnt schon mit Hilfe des Prompts euren Output wesentlich besser auf euch zuschneiden, wenn ihr mehr Beispiel-Texte einfügt. Wenn ihr einen Roman schreiben wollt, dann braucht ihr für 100 Seiten Text nicht recht viel mehr als drei kohärente Prompts… Längere Textverarbeitung ist natürlich auch gut für das OpenAI Geschäftsmodell, aber: Fair enough, denn Preis-Leistung stimmt hier noch.

 

GPT-4 lässt sich mit Prompts tunen

Prompts und Prompt-Techniken, die für Sprachmodelle entwickelt und getestet wurden, kitzeln auch aus GPT-4 noch mehr heraus. Few-Shot und Chain-of-Thought Prompting sind immer noch entscheidend. Das heißt: Am Ende hast es immer noch Du in der Hand, ob Dein Output gut ist – oder nicht. Du kannst hier noch einmal lesen, warum genau Du Dich mit Prompt Engineering beschäftigen sollst, zumindest unserer Ansicht nach: Warum Designer jetzt Prompt Engineering lernen müssen

 

TL;DR

 

GPT-4 von OpenAI bietet zahlreiche Möglichkeiten für Marketingprofis, ihre Strategien und Prozesse zu optimieren. Die Verbesserungen gegenüber GPT-3 sind signifikant und eröffnen neue Anwendungsmöglichkeiten, wie die Multimodalität und die Fähigkeit, längere Texte und Konversationen zu verarbeiten. Unternehmen, die GPT-4 effektiv einsetzen, können von einer effizienteren Content-Generierung, besseren Personalisierung und einer höheren Reichweite profitieren. Durch den Einsatz von GPT-4 können Marketingteams ihre Ressourcen strategischer nutzen und innovative Kampagnen entwickeln, die auf die Bedürfnisse ihrer Kunden zugeschnitten sind. Auch in näherer Zukunft kommt es auf die Prompts an, um guten Output zu bekommen. Dieser letzte Absatz wurde von GPT-4 verfasst, der Rest von Vroni. 

 

 

Hier noch der Prompt zum Beitragsbild: stable diffusion 1.5: strybk-tree-kids-story-book-style-muted-colors-watercolor-style

Das könnte Dich auch interessieren:
KI im Einsatz
WAN 2.2 schlägt Flux bei LoRAs klar

Georg war schon beim ersten Test von WAN 2.2 fasziniert. Wir hatten das Modell im KI Marketing Bootcamp bereits für Bild- und Videogenerierung ausprobiert – und die Resultate waren beeindruckend. Die Highlights dieser Tests haben wir bereits in zwei separaten Blogbeiträgen festgehalten:   Unser Video-Blogbeitrag zu WAN 2.2 → Unser Bild-Blogbeitrag zu WAN 2.2 →   Doch diesmal hat Georg den nächsten Schritt gewagt: Er hat mit WAN 2.2 sein ganz eigenes LoRA trainiert. Das

Weiterlesen »
KI im Einsatz
Bildgenerierung mit WAN 2.2: Was das Open Source Modell drauf hat

Wenn du gerade von unserem WAN 2.2 Video‑Blogbeitrag kommst, weißt du schon, was dich erwartet.Wenn nicht – kein Problem. Hier bekommst du den zweiten Teil unseres Tests. Diesmal geht’s um die Bildgenerierung mit WAN 2.2, und die ist – kein Witz – richtig stark. Warum? Weil WAN 2.2 nicht nur in der Videogenerierung überzeugt, sondern auch bei Standbildern extrem abliefert: realistische Hauttöne, fotorealistisches Licht, klar definierte Materialien. Falls du erstmal das Video sehen willst: Hier

Weiterlesen »
KI im Einsatz
WAN 2.2: Wenn KI-Videos plötzlich wie echte Werbespots aussehen

Videos mit KI generieren – und das mit Open Source? WAN 2.2 von Alibaba hat da etwas vorgelegt, was überrascht. Das Modell beeindruckt nicht nur mit der Videoqualität, sondern auch bei der Bildgenerierung. Wir haben uns in diesem Beitrag die Videogenerierung mal genauer angeschaut und zeigen dir ein paar Beispiele, wie das Ganze aussehen kann – inklusive der passenden Prompts. Inhaltsverzeichnis Die wichtigsten Fakten zu WAN 2.2   Entwickler: Alibaba DAMO AcademyLizenz: Apache 2.0 (kommerzielle

Weiterlesen »
Aktuelles
ChatGPT 5 ist da: Das sind die coolsten neuen Features

Stell dir vor, jeder ChatGPT-Chat wäre ein kleiner persönlicher Assistent, der automatisch weiß, wann er schnell antworten soll und wann er tief nachdenken muss. Genau das ist ChatGPT 5!   Am 7. August 2025 hat OpenAI sein neuestes KI-Modell veröffentlicht – und diesmal ist alles anders. ChatGPT 5 wechselt automatisch zwischen „schnellem Chat“ und „tiefem Nachdenken“, je nachdem was du brauchst. Das heißt: Du musst nicht mehr zwischen verschiedenen Modellen hin- und herwechseln. Die KI

Weiterlesen »
Aktuelles
Nie wieder wichtige E-Mails vergessen: Mein n8n-Workflow für automatische E-Mail-Erinnerungen

Inhaltsverzeichnis Das Problem mit den E-mails   „Bei dem ganzen E-Mail-Verkehr geht mir manchmal einiges durch die Lappen. Ich hab die E-Mail noch im Kopf, dann kommen 10.000 andere Sachen rein und dann geht eine simple Aufgabe unter: auf die E-Mail antworten.“   So ging es Georg und Vroni vom KI Marketing Bootcamp – und ehrlich gesagt, wer kennt das nicht?   Bei einem Newsletter ist das vielleicht noch verschmerzbar. Aber wenn das bei Kunden

Weiterlesen »
KI im Einsatz
Ein Radieschen für 400 Token – Warum KI-Schulungen bei ChatGPT, Mistral & Co. Energie und Wasser sparen

Stell dir vor, jede KI-Anfrage wäre ein kleines Radieschen plus 10 Sekunden Netflix.   Mistral AI  hat vor kurzem eine faszinierende Rechnung aufgemacht: 400 Token Text generieren entspricht dem Wasserverbrauch eines winzigen Radieschens UND 10 Sekunden Video-Streaming auf Netflix. Klingt vernachlässigbar, oder?   Einzeln betrachtet ist es das auch. Problematisch wird es erst bei Millionen täglicher Anfragen weltweit. Dann wird aus einem Radieschen und 10 Netflix-Sekunden schnell ein ganzer Gemüsegarten plus Netflix-Marathons.   Die gute

Weiterlesen »

🚀 Exklusive Back-to-School-Aktion 🚀

Spare 880 € beim KI-Marketing-Bootcamp!

Bring eine Kolleg*in mit und erhalte 50% Rabatt für deine Begleitung.

Nur für kurze Zeit und solange Kontingent reicht! Aktion endet am 16. September 2024.

Abonniere unseren Newsletter 🥳