Ein kräftiger Baum mit vielen Verästelungen in Aquarell

Was ändert sich mit GPT-4?

Seit Monaten sprechen alle davon: Wenn GPT-4 kommt, ändert sich alles. Wir haben für euch geprüft, was dran ist und was sich wirklich verbessert hat. So viel vorneweg: GPT-4 ist wirklich mächtig. Aber was ändert sich mit GPT-4 konkret? 

 

GPT-4 ist multimodal

Im Gegensatz zu den Vorgänger-Modellen ist GPT-4 ein multimodales Modell. Das heißt, es kann Input verschiedener Art verarbeitet. Zum Beispiel Bilder. Man fügt ein Bild ein und bekommt Output aus dem System. Eine konkrete Anwendung für Menschen in der Kommunikationsbranche: Du zeichnest per Hand wireframes, fütterst es GPT-4 und bekommst Inhalte sowie Code aus GPT-4. Aktuell ist multimodaler Input aber erst für ForscherInnen verfügbar. Fazit: Multimodalität eröffnet neue Möglichkeiten für Marketingmaßnahmen, die visuelle Elemente und Text kombinieren. Bei Aleph Alpha (aleph-alpha.com) könnt ihr übrigens schon seit Monaten multimodal Inhalte verarbeiten. Das ist ein deutsches Unternehmen, deren Interface wir auch gerne nutzen.

 

GPT-4 beherrscht Programmiersprachen

Programmierer als Gate-Keeper fürs Marketing, diese Rolle wird sich verschieben. Denn mit den Codex-Sprachmodellen hatte man schon die Möglichkeit auf Basis eines Inputs in Form eines natürlichen Texts Code erzeugen zu lassen. Das kann nun auch GPT-4. Damit können Marketer sagen: „Schau, ich habe meine Idee schon einmal mit GPT-4 in einer Programmiersprache nach Wahl als Entwurf vorbereitet. Was hältst du davon?“ Für mich ändert das einiges!

 

GPT-4 ist kompetenter

GPT-4 hat den Sommelier-Test bestanden. Ich wusste ja nicht einmal, dass es hier ein offizielles Prüfungsschema gibt… Aber ja, GPT-4 ist kompetent in vielen Wissens- und Fachdomänen. Hier ein Vergleich mit der Leistung von GPT-3.5: 

Vergleich mit der Leistung von GPT-3.5 in standardisierten Tests
Vergleich mit der Leistung von GPT-3.5 in standardisierten Tests

 

GPT-4 beherrscht längere Inhalte 

GPT-4 kann sehr viel längere Texte verarbeiten, sowohl als Prompt, als auch als Output. In Zahlen: Bei GPT-3 war bisher bei 4.000 Tokens Schluss, das entspricht Pi mal Daumen 2.500 Wörtern. GPT-4 schafft 32.000 Tokens. Das heißt, ihr könnt schon mit Hilfe des Prompts euren Output wesentlich besser auf euch zuschneiden, wenn ihr mehr Beispiel-Texte einfügt. Wenn ihr einen Roman schreiben wollt, dann braucht ihr für 100 Seiten Text nicht recht viel mehr als drei kohärente Prompts… Längere Textverarbeitung ist natürlich auch gut für das OpenAI Geschäftsmodell, aber: Fair enough, denn Preis-Leistung stimmt hier noch.

 

GPT-4 lässt sich mit Prompts tunen

Prompts und Prompt-Techniken, die für Sprachmodelle entwickelt und getestet wurden, kitzeln auch aus GPT-4 noch mehr heraus. Few-Shot und Chain-of-Thought Prompting sind immer noch entscheidend. Das heißt: Am Ende hast es immer noch Du in der Hand, ob Dein Output gut ist – oder nicht. Du kannst hier noch einmal lesen, warum genau Du Dich mit Prompt Engineering beschäftigen sollst, zumindest unserer Ansicht nach: Warum Designer jetzt Prompt Engineering lernen müssen

 

TL;DR

 

GPT-4 von OpenAI bietet zahlreiche Möglichkeiten für Marketingprofis, ihre Strategien und Prozesse zu optimieren. Die Verbesserungen gegenüber GPT-3 sind signifikant und eröffnen neue Anwendungsmöglichkeiten, wie die Multimodalität und die Fähigkeit, längere Texte und Konversationen zu verarbeiten. Unternehmen, die GPT-4 effektiv einsetzen, können von einer effizienteren Content-Generierung, besseren Personalisierung und einer höheren Reichweite profitieren. Durch den Einsatz von GPT-4 können Marketingteams ihre Ressourcen strategischer nutzen und innovative Kampagnen entwickeln, die auf die Bedürfnisse ihrer Kunden zugeschnitten sind. Auch in näherer Zukunft kommt es auf die Prompts an, um guten Output zu bekommen. Dieser letzte Absatz wurde von GPT-4 verfasst, der Rest von Vroni. 

 

 

Hier noch der Prompt zum Beitragsbild: stable diffusion 1.5: strybk-tree-kids-story-book-style-muted-colors-watercolor-style

Wer hat's geschrieben?

Das könnte Dich auch interessieren:
Aktuelles
Warum „10 Nachrichten pro Tag“ als KI-Limit ausgedient hat

Wer in den letzten Wochen Mails von KI-Anbietern bekommen hat, in denen plötzlich neue Nutzungslimits erklärt werden, ist nicht allein. Langdock hat es gerade öffentlich gemacht, OpenAI und Anthropic haben es schon länger in ihren Tarifen umgesetzt: Der Industriestandard verschiebt sich gerade von Nachrichten-Limits zu kostenbasierten Limits. Klingt nach einer Detailfrage für Admins. Ist aber für jedes Marketing-Team relevant, das täglich mit KI arbeitet. Das Problem: Eine Nachricht ist nicht mehr eine Nachricht Vor drei Jahren war

Weiterlesen »
Uncategorized
Von SEO zu GEO: So sicherst du dir einen Platz in der KI-Antwort

Immer mehr Menschen tippen ihre Fragen nicht mehr in Google, sondern direkt in ChatGPT, Perplexity oder Gemini, und bekommen eine fertige Antwort, ohne überhaupt eine Website zu besuchen. Für dich heißt das: Wenn deine Inhalte in dieser Antwort nicht auftauchen, bist du unsichtbar. Willkommen im Zeitalter der Generative Engine Optimization (GEO). Vroni hat zu diesem Thema einen Beitrag im Magazin von gate-germany.de mitgestaltet. Der Fokus liegt zwar auf Hochschulen, die Logik lässt sich aber 1:1 aufs

Weiterlesen »
KI News
Midjourney V8.1: 2026 endlich in 2025 angekommen

Midjourney V8.1 ist da. Hände funktionieren, Gesichter sitzen, die Ästhetik stimmt wieder. Willkommen im Jahr 2025 – nur eben mit zwölf Monaten Verspätung. Während Midjourney zwei Releases brauchte, um den eigenen Vorgänger V7 wieder einzuholen, haben Nano Banana 2 und GPT-Image-2 die Messlatte in praktisch jeder marketingrelevanten Kategorie nach oben geschoben. Die These: Midjourney V8.1 ist ein solides Comeback – aber kein Anschluss an die Spitze. Und genau darin liegt eine Lektion über den Unterschied

Weiterlesen »
KI News
ChatGPT 5.5 2026: Wie OpenAI vom Chatbot zur Arbeitsoberfläche wechselt

ChatGPT ist im Frühjahr 2026 nicht einfach besser geworden. Das Produkt wird zu etwas anderem. Innerhalb einer Woche hat OpenAI Workspace Agents (22. April), GPT-5.5 (23. April), Images 2.0 (21. April) und Fast Answers (22. April) ausgerollt, dazu kommt das verbesserte Memory aus dem Januar. Wer all das nebeneinanderlegt, sieht keine zufällige Update-Welle, sondern eine strategische Verschiebung. Weg vom Antwortgenerator, hin zur Arbeitsoberfläche für Wissensarbeit. Wir haben uns die Releases angeschaut. Das Muster hinter den

Weiterlesen »
KI im Einsatz
Aus einem Blogartikel wurde ein Spiel: Wie wir die KI-Ostersuche gebaut haben

Zwölf Nudges, zwölf Ostereier, eine Wiese. Das war die ganze Idee. Kein Konzeptpapier, kein Briefing-Marathon. Eine Frage an Claude Code: „Ostern steht vor der Tür. Was machen wir mit den 12 KI-Nudges?“ Der Blogartikel war fertig. Gut recherchiert, mit Praxisbezug, mit Substanz. Aber eben: ein Blogartikel. Scrollbar. Lesbar. Vergessbar. Die Frage war nicht „Wie kriegen wir mehr Reichweite?“, sondern: Gibt es ein Format, das die Nudges erlebbar macht, statt sie nur aufzuzählen? Von der Idee zum

Weiterlesen »
Aktuelles
Nudging und KI: Warum sanfte Stupser beim Lernen mit KI nicht reichen

Nudging ist eines dieser Konzepte, die so elegant klingen, dass man sie sofort auf alles anwenden will. Ein kleiner Stupser in die richtige Richtung, eine geschickte Voreinstellung, eine kaum merkliche Veränderung der Umgebung, und schon verhalten sich Menschen besser. Funktioniert in Kantinen, beim Organspende-Register, bei Cookie-Bannern. Warum nicht auch beim Lernen mit KI? Ich höre die Idee regelmäßig in Seminaren, besonders von Führungskräften: „Können wir nicht einfach ein paar Nudges einbauen? Ein Pop-up, das fragt:

Weiterlesen »

Hey Du. Willst du AI Content Manager werden?

Dann ab ins kostenfreie Info-Webinar am 25.03. um 12:00 Uhr. 

🚀 Exklusive Back-to-School-Aktion 🚀

Spare 880 € beim KI-Marketing-Bootcamp!

Bring eine Kolleg*in mit und erhalte 50% Rabatt für deine Begleitung.

Nur für kurze Zeit und solange Kontingent reicht! Aktion endet am 16. September 2024.

Abonniere unseren Newsletter 🥳