Minimalistische, quadratische Infografik mit dem Haupttitel "EVOLUTION: PROMPT -> CONTEXT -> SKILLS ENGINEERING". Darunter befinden sich drei farblich kodierte, rechteckige Felder, die durch Pfeile von links nach rechts verbunden sind und einen Entwicklungsprozess darstellen. Das linke, hellblaue Feld ist betitelt mit "PROMPT ENGINEERING". Es enthält eine Ikone einer Gedankenblase mit einem Fragezeichen und einer Lupe über Text. Text darunter: "FOCUS: Single Input", "QUESTION: 'How do I formulate my instruction?'", "GOAL: Perfect the prompt". Ein Pfeil zeigt auf das mittlere, hellorange Feld mit dem Titel "CONTEXT ENGINEERING". Die Ikone zeigt Dokumente, eine Cloud-Datenbank und Zahnräder. Text darunter: "FOCUS: Information", "QUESTION: 'What information does the AI need?'", "GOAL: Provide background data". Ein weiterer Pfeil zeigt auf das rechte, hellgrüne Feld mit dem Titel "SKILLS ENGINEERING". Die Ikone zeigt ein Flussdiagramm mit Entscheidungsknoten und einem abgehakten Kontrollkästchen. Text darunter: "FOCUS: Process Knowledge", "QUESTION: 'What process knowledge does the AI need?'", "GOAL: Optimize action competence". Am unteren Rand der Grafik fasst eine Zeile das Ergebnis der Evolution zusammen: "OPTIMIZES: Single Interactions -> Knowledge State -> Action Competence".

Skills Engineering: Ist das was Neues oder die Weiterentwicklung von Prompt- und Context Engineering?

Nach Prompt Engineering kam Context Engineering. Jetzt zeichnet sich ab, was als Nächstes kommt: Skills Engineering. Ich rechne damit, dass der Begriff in den kommenden Monaten zunehmend auftaucht. Denn die Entwicklung dahin, was damit gemeint ist, ist sinnvoll und konsequent, wenn man bessere Ergebnisse mit KI erzielen will.

Was ist Skills Engineering?

„Skills Engineering beschreibt die Kompetenz, menschliches Prozesswissen so aufzubereiten, dass KI-Agenten es nutzen können.“ (Vroni)

Das klingt abstrakt, meint aber etwas sehr Konkretes. KI-Agenten, also Systeme wie Claude Code, Gemini CLI oder GitHub Copilot, die eigenständig mehrstufige Aufgaben ausführen, bringen zwar breites Wissen mit. Aber sie wissen nicht, wie in eurem Unternehmen ein Angebot geschrieben wird, welche Tonalität eure Marke verlangt oder welche Fehler bei der Kampagnenplanung typischerweise passieren. Dieses prozedurale Wissen, also das Wie der Arbeit, können Menschen ihnen in strukturierter Form mitgeben. Diese strukturierten Wissenspakete heißen in der Technik „Agent Skills“.

Die drei Stufen lassen sich so abgrenzen:

Prompt Engineering fragte: Wie formuliere ich meine Anweisung? Der Fokus lag auf dem einzelnen Input, dem perfekten Prompt.

Context Engineering fragte: Welche Informationen braucht die KI? Der Fokus verschob sich auf den Kontext: Dokumente, Daten, Hintergrundwissen, das dem Modell zur Verfügung gestellt wird.

Skills Engineering fragt: Welches Prozesswissen muss die KI haben, um meine Arbeit zu verstehen? Der Fokus liegt nicht auf Fakten, sondern auf Vorgehensweisen, Qualitätskriterien und Entscheidungslogiken. Nicht „was wir wissen“, sondern „wie wir arbeiten“.

Der Unterschied ist nicht nur semantisch. Prompt Engineering optimierte einzelne Interaktionen. Context Engineering optimierte den Wissensstand des Modells. Skills Engineering optimiert die Handlungskompetenz des Agenten, also seine Fähigkeit, eine Aufgabenklasse wiederholt und zuverlässig zu bearbeiten.

Kein Anthropic-Feature, ein offener Standard

Wer jetzt denkt, das sei ein Marketing-Trick eines einzelnen Anbieters, liegt falsch. Anthropic hat die Agent-Skills-Spezifikation ursprünglich entwickelt. Inzwischen ist sie ein offener Standard, der plattformübergreifend funktioniert. Ein Agent Skill besteht aus einem Ordner mit einer Markdown-Datei (SKILL.md), die beschreibt, wie eine bestimmte Art von Aufgabe gelöst wird. Optional kommen Ressourcen dazu: Vorlagen, Skripte oder Beispieldaten.

Das Format wird Stand März 2026 nativ unterstützt von GitHub Copilot, Gemini CLI, Cursor, Windsurf, OpenAI Codex und über 30 weiteren Coding-Agenten. GitHub Copilot liest sogar automatisch Skills aus, die für Claude Code angelegt wurden. Es gibt einen Marktplatz mit über 40.000 veröffentlichten Skills, CLI-Tools, die ein Skill gleichzeitig auf mehrere Agenten installieren, und Security-Registries, die Skills auf Sicherheitslücken scannen.

Das ist keine Nische. Das ist Infrastruktur.

Was die Forschung zeigt

SkillsBench, ein im Februar 2026 veröffentlichter Benchmark, liefert die erste systematische Messung dessen, was Skills bewirken. 84 Aufgaben aus 11 Fachgebieten und sieben Modell-Agenten-Kombinationen in über 7.300 Testläufen. Drei Bedingungen: ohne Skills, mit von Menschen geschriebenen Skills und mit selbst-generierten Skills. Bei der letzten Variante wurde die KI aufgefordert, sich ihr eigenes Prozesswissen zu schreiben, bevor sie die Aufgabe löst.

Vier Befunde, die für die Praxis relevant sind.

Menschliches Prozesswissen wirkt massiv. Von Menschen geschriebene Skills verbessern die Leistung im Durchschnitt um 16,2 Prozentpunkte. In Domänen mit hohem Spezialwissen ist der Effekt noch größer: plus 51,9 Prozentpunkte im Gesundheitsbereich, plus 41,9 in der Fertigung. In Bereichen, in denen Modelle bereits viel Vorwissen haben, etwa Softwareentwicklung, liegt der Effekt bei plus 4,5 Prozentpunkten. Die Übersetzung: Je spezialisierter eure Arbeit, desto mehr profitiert die KI von eurem strukturierten Wissen.

Die KI kann dieses Wissen nicht selbst erzeugen. Selbst-generierte Skills bringen im Durchschnitt minus 1,3 Prozentpunkte. Das ist nicht neutral, das ist schlechter als gar keine Skills. Die Studie identifiziert zwei Fehlermuster: Entweder produziert die KI vage Anleitungen („nutze ein geeignetes Framework“ statt konkreter Schritte), oder sie erkennt gar nicht, dass spezialisiertes Wissen fehlt, und versucht es mit Allgemeinwissen. Das bestätigt eine Beobachtung aus unseren Seminaren: KI simuliert Kompetenz. Sie profitiert enorm von menschlicher Expertise, kann sie aber nicht ersetzen.

Weniger ist mehr. Aufgaben mit zwei bis drei fokussierten Skills zeigten die besten Ergebnisse (plus 18,6 Prozentpunkte). Bei vier oder mehr Skills sackte der Effekt auf plus 5,9 Prozentpunkte. Umfassende Dokumentation, also der Impuls, dem Agenten möglichst alles zu geben, schadet sogar: minus 2,9 Prozentpunkte. Die Agenten werden offenbar überflutet und extrahieren nicht mehr die relevanten Informationen. Präzision schlägt Vollständigkeit.

Das richtige Wissen schlägt das teurere Modell. Claude Haiku, das kleinste getestete Claude-Modell, erreichte mit Skills 27,7 Prozent Erfolgsquote. Das deutlich leistungsfähigere Claude Opus ohne Skills kam auf 22,0 Prozent. Für Budget-Entscheidungen in Unternehmen hat das konkrete Konsequenzen: Bevor ihr das teuerste Modell lizenziert, investiert in die Dokumentation eures Prozesswissens.

Was Skills Engineering mit eurem Alltag zu tun hat

Die meisten Marketing-Teams arbeiten heute nicht mit Coding-Agenten, die SKILL.md-Dateien auslesen. Noch sind wir in der Welt der Chatbot-Fenster und Copy-Paste-Workflows. Aber die Entwicklung, die ich im Artikel über Modell, App und Unterbau beschrieben habe, zeigt die Richtung: KI-Systeme werden autonomer. Und die Prinzipien von Skills Engineering gelten schon jetzt.

Denn was Skills Engineering im Kern beschreibt, ist nichts anderes als das, was gute Briefings schon immer ausgemacht hat: nicht nur sagen, was herauskommen soll, sondern dokumentieren, wie man dorthin kommt. Schritte in welcher Reihenfolge, typische Fehler, geltende Qualitätskriterien und Branchenkonventionen.

Wir sehen den Skills-Effekt im Kleinen, wenn Seminarteilnehmer anfangen, ihre Prompts nicht mit mehr Wörtern, sondern mit dem richtigen Wissen anzureichern. Die Marketingleiterin, die ihrem KI-Assistenten nicht nur „Schreib einen Newsletter“ sagt, sondern die Tonalitätsregeln, die Zielgruppenkenntnis und die Dos-and-Don’ts der Marke mitgibt, macht intuitiv Skills Engineering. Nur nennt sie es nicht so.

Im Produktivitätsartikel habe ich beschrieben, dass Strategie, Kuration und Kontextwissen die eigentlichen Upskilling-Kandidaten in der KI-Ära sind. Skills Engineering macht das greifbar: Die Fähigkeit, das eigene Fachwissen so zu strukturieren, dass es teilbar und wiederverwendbar wird, ist genau die Kompetenz, die nicht automatisierbar ist.

Drei Einwände, die ich für berechtigt halte

Erstens: Die SkillsBench-Studie testet Coding-Agenten in containerisierten Umgebungen. Das ist weit entfernt vom Alltag eines Kommunikationsteams. Ob sich die Effektstärken auf Textarbeit, Kampagnenplanung oder Bildgenerierung übertragen, ist nicht belegt. Die Prinzipien, präzise Anleitung schlägt vages Allgemeinwissen, sind plausibel. Aber Vorsicht vor Eins-zu-eins-Übertragungen.

Zweitens: Skills Engineering klingt nach einer neuen Kompetenz, die man lernen muss. In Wahrheit beschreibt es etwas, das erfahrene Fachleute bereits können: ihr Wissen strukturiert weitergeben. Die Gefahr ist, dass der Begriff zu einem weiteren Zertifikatskurs wird, der Form über Substanz stellt. Die eigentliche Kompetenz ist und bleibt das Fachwissen selbst.

Drittens: Der Begriff verschleiert, dass die Voraussetzung für gute Skills das ist, was in der Forschung als Metakognition bezeichnet wird, die Fähigkeit, den eigenen Arbeitsprozess bewusst zu reflektieren. Wer nicht erklären kann, wie er eine Aufgabe löst, kann das auch keinem Agenten beibringen. Skills Engineering ist nur so gut wie die Selbstreflexion der Menschen, die die Skills schreiben.

Was bleibt

Skills Engineering ist kein Paradigmenwechsel. Es ist die logische Konsequenz einer Entwicklung, die wir seit dem Übergang von Chatbots zu Agenten beobachten: Je eigenständiger KI-Systeme arbeiten, desto wichtiger wird das strukturierte Prozesswissen, das Menschen ihnen mitgeben. Die Daten aus SkillsBench machen das erstmals quantifizierbar. Und sie belegen nebenbei, dass die KI dieses Wissen nicht selbst generieren kann.

Dass Agent Skills innerhalb weniger Monate zu einem plattformübergreifenden Standard geworden sind, den alle großen Anbieter unterstützen, zeigt: Das ist keine Mode, sondern eine Infrastrukturentwicklung. Die Frage ist nicht, ob Skills Engineering relevant wird. Die Frage ist, wer in eurem Team das Prozesswissen hat, das die Agenten brauchen, und ob dieses Wissen irgendwo dokumentiert ist.

Die Antwort auf diese Frage entscheidet darüber, ob KI in eurer Organisation ein Produktivitätswerkzeug wird oder ein Zufallsgenerator für plausibel klingenden Output.

Praxis-Take-Away: Euer erstes „Skill-Dokument“

Ihr müsst nicht auf KI-Agenten warten, um von der Idee zu profitieren. Nehmt eine wiederkehrende Aufgabe aus eurem Team und dokumentiert sie so, dass ein neuer Mitarbeiter, oder eben eine KI, sie erledigen könnte.

In 20 Minuten:

Wählt eine Aufgabe, die ihr regelmäßig macht und die jedes Mal ähnlich abläuft. Zum Beispiel: einen Social-Media-Post aus einem Blogartikel erstellen, ein Angebot für einen bestimmten Seminartyp schreiben, eine Wettbewerbsanalyse aktualisieren.

Schreibt auf einer Seite auf: Was ist das Ziel? Was sind die Schritte, konkret, in Reihenfolge? Welche Fehler passieren typischerweise? Was unterscheidet ein gutes Ergebnis von einem mittelmäßigen?

Eine Copy-Paste-Vorlage für Skills

---
name: mein-skill-name
description: >
  Beschreibt in 1–2 Sätzen, was der Skill tut UND wann er
  aktiviert werden soll. Der Agent liest nur diesen Text,
  um zu entscheiden, ob der Skill zur Aufgabe passt.
---

# [Titel: Was dieser Skill tut]

## Ziel
[Was soll am Ende rauskommen? Konkret und messbar.
Nicht "guter Content", sondern z.B.: Ein LinkedIn-Post,
max. 1.300 Zeichen, mit These und Frage am Ende.]

## Schritte
1. [Erster Schritt: Was genau tun?]
2. [Zweiter Schritt]
3. [Dritter Schritt]
4. [...]

## Häufige Fehler vermeiden
- NICHT [typischer Fehler, der immer wieder passiert]
- NICHT [zweiter Fehler]
- KEINE [was ihr nicht im Ergebnis sehen wollt]

## Qualitätskriterien
- [Woran erkennt euer Team, dass das Ergebnis gut ist?]
- [Was unterscheidet gut von mittelmäßig?]

Was ihr davon habt, jetzt schon:

Erstens Klarheit. Die meisten Menschen können ihre Routineaufgaben nicht in Schritte zerlegen, weil sie sie auf Autopilot erledigen. Das Aufschreiben zwingt zur Reflexion und offenbart oft, wo implizites Wissen steckt, das nirgends dokumentiert ist.

Zweitens Skalierbarkeit. Dieses Dokument ist sofort nützlich, als Einarbeitung für neue Teammitglieder, als Briefing für Freelancer, als Grundlage für eine Prozessverbesserung. Und wenn KI-Agenten in euren Workflow einziehen, habt ihr die Vorarbeit bereits geleistet.

Drittens den Beweis, dass die eigentliche Kompetenz nicht im Tool liegt. Sie liegt im Kopf der Person, die weiß, wie die Arbeit funktioniert.

Quellen

SkillsBench Paper:
Li, X., Chen, W., Liu, Y., et al. (2026). SkillsBench: Benchmarking How Well Agent Skills Work Across Diverse Tasks. arXiv preprint arXiv:2602.12670v1.

Anthropic Agent Skills:
Anthropic (2025). Equipping Agents for the Real World with Agent Skills. Anthropic Engineering Blog.

GitHub Copilot Agent Skills:
GitHub Changelog (2025). GitHub Copilot now supports Agent Skills. Dezember 2025.

Gemini CLI Agent Skills:
Google (2026). Agent Skills – Gemini CLI Documentation.

Agent Skills Open Standard:
agentskills.io – The Agent Skills Specification.

Wer hat's geschrieben?

Das könnte Dich auch interessieren:
Minimalistische, quadratische Infografik mit dem Haupttitel "EVOLUTION: PROMPT -> CONTEXT -> SKILLS ENGINEERING". Darunter befinden sich drei farblich kodierte, rechteckige Felder, die durch Pfeile von links nach rechts verbunden sind und einen Entwicklungsprozess darstellen. Das linke, hellblaue Feld ist betitelt mit "PROMPT ENGINEERING". Es enthält eine Ikone einer Gedankenblase mit einem Fragezeichen und einer Lupe über Text. Text darunter: "FOCUS: Single Input", "QUESTION: 'How do I formulate my instruction?'", "GOAL: Perfect the prompt". Ein Pfeil zeigt auf das mittlere, hellorange Feld mit dem Titel "CONTEXT ENGINEERING". Die Ikone zeigt Dokumente, eine Cloud-Datenbank und Zahnräder. Text darunter: "FOCUS: Information", "QUESTION: 'What information does the AI need?'", "GOAL: Provide background data". Ein weiterer Pfeil zeigt auf das rechte, hellgrüne Feld mit dem Titel "SKILLS ENGINEERING". Die Ikone zeigt ein Flussdiagramm mit Entscheidungsknoten und einem abgehakten Kontrollkästchen. Text darunter: "FOCUS: Process Knowledge", "QUESTION: 'What process knowledge does the AI need?'", "GOAL: Optimize action competence". Am unteren Rand der Grafik fasst eine Zeile das Ergebnis der Evolution zusammen: "OPTIMIZES: Single Interactions -> Knowledge State -> Action Competence".
KI im Einsatz
Skills Engineering: Ist das was Neues oder die Weiterentwicklung von Prompt- und Context Engineering?

Nach Prompt Engineering kam Context Engineering. Jetzt zeichnet sich ab, was als Nächstes kommt: Skills Engineering. Ich rechne damit, dass der Begriff in den kommenden Monaten zunehmend auftaucht. Denn die Entwicklung dahin, was damit gemeint ist, ist sinnvoll und konsequent, wenn man bessere Ergebnisse mit KI erzielen will. Was ist Skills Engineering? „Skills Engineering beschreibt die Kompetenz, menschliches Prozesswissen so aufzubereiten, dass KI-Agenten es nutzen können.“ (Vroni) Das klingt abstrakt, meint aber etwas sehr Konkretes.

Weiterlesen »
Aktuelles
Nano Banana 2: Pro-Qualität zum Flash-Preis?

Google hat letzte Woche Nano Banana 2 veröffentlicht, technisch das Modell Gemini 3.1 Flash Image. Es ersetzt Nano Banana Pro als Standard in der Gemini-App und soll Pro-Level-Qualität bei deutlich höherer Geschwindigkeit und rund halbem Preis liefern. Ich hab’s direkt gegen Pro antreten lassen. Mein erster Eindruck: Nano Banana 2 ist verdammt nah dran. Aber vor allem ist es schnell. Geschwindigkeit als echter Hebel Während man bei Pro teilweise Minuten auf ein einzelnes Bild warten

Weiterlesen »
Aktuelles
Die neue Knappheit: Warum mehr Content weniger wert ist

Content kostet fast nichts mehr. Ein Blogpost? Fünf Minuten mit Claude. Zehn Social-Media-Varianten? Noch mal drei Minuten. Ein kompletter Redaktionsplan für sechs Monate? Eine Stunde, wenn man gründlich ist. Die Produktionskosten sind auf nahezu Null gefallen. Und genau deshalb ist die meiste Content-Strategie, die ich sehe, gerade dabei, wertlos zu werden. Das klingt paradox. Aber die Ökonomie ist eindeutig: Wenn etwas im Überfluss existiert, verliert es seinen Wert. Was knapp bleibt, wird kostbar. Content ist

Weiterlesen »
KI News
Dein KI-Anbieter wurde gerade zum Sicherheitsrisiko erklärt. Was jetzt?

Am Freitag hat die US-Regierung Anthropic auf eine Stufe mit Huawei gestellt. Nicht wegen Spionage, nicht wegen Verbindungen zu feindlichen Staaten, sondern weil das Unternehmen sich weigerte, zwei Sicherheitsleitplanken aus einem Pentagon-Vertrag zu entfernen: keine Massenüberwachung von US-Bürgern, keine vollständig autonomen Waffensysteme. Wenige Stunden später verkündete OpenAI, den frei gewordenen Platz übernommen zu haben. CEO Sam Altman behauptete, sein Deal enthalte dieselben Sicherheitsprinzipien. Aber wer genau hinschaut, sieht: OpenAI hat den entscheidenden Kompromiss gemacht, den

Weiterlesen »
Ein Detailfoto, das eine Hand eines Geschäftsmannes im Anzug zeigt, die aus einer Spraydose mit dem Etikett „AI WASHING“ einen cyanfarbenen Dunst auf eine rissige Betonwand sprüht. Die Spraydose ist eine silberne Metalldose mit einem goldfarbenen Etikett und einem schwarzen Sprühkopf, die er mit Daumen und Zeigefinger hält. An seiner Hand trägt er einen goldenen Ehering und eine goldene Armbanduhr mit einem hellen Zifferblatt, die am Handgelenk sichtbar ist. Auf der rissigen Betonwand sind links einige Wörter eingeritzt, darunter „DOWNSIZING“, „LAYOFFS“, „DOWNSIZING“, „BUDGET“ und „AUSTERITY“, die alle grau und schwer lesbar sind. Der cyanfarbene Dunst, der aus der Spraydose sprüht, bildet auf der Wand eine leuchtend cyanfarbene, digitale Oberfläche mit Schaltkreisen, Icons und leuchtenden Wörtern. Oben links auf dieser Oberfläche steht „AI INNOVATION“, darunter „FUTURE EFFICIENCY“ und ganz unten „AUTOMATION“. Der Geschäftsmann steht rechts und sprüht den Dunst auf die linke Seite der Wand, wodurch die graue Wand mit den negativen Wörtern übermalt wird. Der Hintergrund ist ein unscharfer, dunkler Büroraum mit einigen Schreibtischen und Lampen. Die Betonwand ist links rissig und uneben, rechts wird sie durch die digitale, leuchtende Oberfläche glatt und modern.
Aktuelles
AI-Washing: Wenn „KI-Transformation“ Entlassungen bedeutet

Block, das Unternehmen hinter Square und Cash App, hat gestern 4.000 Menschen entlassen, das entspricht 40 Prozent der Belegschaft. CEO Jack Dorsey nennt es eine strategische Entscheidung für die KI-Zukunft. Für die Betroffenen klingt „intelligence-native company“ vermutlich anders als für die Investoren, die den Kurs nach oben trieben. Und für alle, die sich fragen, was KI tatsächlich mit Arbeitsplätzen macht, lohnt sich ein genauerer Blick – auf die Zahlen, die Narrative und die Forschung dahinter.

Weiterlesen »
KI im Einsatz
Der Bullshit Benchmark: Was passiert, wenn KI-Modelle auf Unsinn hereinfallen

55 Fragen, jede einzelne davon Unsinn. Und die meisten Sprachmodelle haben brav geantwortet, als wäre alles völlig plausibel. Peter Gostev, AI Capability Lead bei Arena, hat mit seinem „Bullshit Benchmark“ etwas sichtbar gemacht, das ich seit 2022 in jeder Schulung predige: Die gefährlichste Eigenschaft von Sprachmodellen ist nicht, dass sie Fehler machen. Es ist, dass sie Fehler machen, die sich richtig anfühlen. Was der Bullshit Benchmark testet Die Idee ist so simpel wie entlarvend: Gostev

Weiterlesen »

Hey Kreativer. Willst du AI Art Director werden? 🎨

Dann ab ins kostenfreie Info-Webinar am 19.03. um 12:00 Uhr. 

🚀 Exklusive Back-to-School-Aktion 🚀

Spare 880 € beim KI-Marketing-Bootcamp!

Bring eine Kolleg*in mit und erhalte 50% Rabatt für deine Begleitung.

Nur für kurze Zeit und solange Kontingent reicht! Aktion endet am 16. September 2024.

Abonniere unseren Newsletter 🥳