KI Texte erkennen: Funktionieren die Detection Tools?

Woher weiß ich, was ein Mensch geschrieben hat – und was eine KI? Menschen können dies nicht unterscheiden. Auch wenn sie es behaupten… Wie sieht es mit einer anderen KI aus? Erkennt sie, was künstlich generierter Text ist? Ein paar Tools gab’s ja schon, die das mittelgut unterscheiden konnten. Jetzt hat OpenAI einen classifier rausgebracht. Wir widmen uns also einem heißen Thema. KI Texte erkennen: Funktionieren die Detection Tools?

 

Das neueste Tools vom Platzhirsch itself: OpenAI classifier

 

Hier die Eckdaten, wie zuverlässig das neue Tool von OpenAI KI-produzierte Texte erkennt: Aus dem Test-Set an englischsprachigen Texten wurden 26% der Texte korrekt als KI-produziert erkannt, aber auch 9% der vom Menschen geschriebenen als KI-produziert gelabelt. Schon ärgerlich… oder ein Gütesiegel, wenn man so schreibt, dass die KI einen für seinesgleichen hält? 

 

Die Zuverlässigkeit der Bewertung: Tendenziell Münzwurf

 

Die Zuverlässigkeit der Ergebnisse ist bei längeren Texten besser als bei kürzeren. Insgesamt ist das Ergebnis auf gut deutsch also eher mau. Auch eine KI kann definitiv nicht zuverlässig erkennen, ob ein Text von einer KI erzeugt wurde oder nicht.  OpenAI selbst gibt folgende Hinweise: Das Tool funktioniert wirklich sehr schlecht bei Texten, die kürzer sind als 1.000 Zeichen. Und sogar noch schlechter, wenn die Texte nicht englischsprachig sind. Vom Menschen editierte Texte sind nicht identifizierbar. 

Aber: Einfach ausprobieren. Hier geht’s zum Tool.

 

Wie funktionieren KI Detection Tools überhaupt? 

 

Die Detektoren überprüfen die Wahrscheinlichkeiten innerhalb eines Texts. Kurzer Exkurs: Die Text-KI kennt ja keine Zusammenhänge. Sie arbeitet lediglich mit Wahrscheinlichkeiten. Es wird prognostiziert, welcher Buchstabe am wahrscheinlichsten auf den vorhergehenden folgt. Diese Wahrscheinlichkeit lässt sich beziffern. Wenn die Buchstaben mit einer hohen Wahrscheinlichkeit aufeinanderfolgen, dann ist der Text vermutlich KI-produziert, so die Annahme des Detektors. Ganz simpel gesagt: Steht da wirres Zeug, dann nimmt das detection tool an, dass vermutlich ein Mensch dahintersteckt. Eine KI würde so etwas nicht tun 🙂

Übrigens könnt ihr euch im OpenAI Playground die Wahrscheinlichkeiten anzeigen lassen. Einfach bevor ihr auf „Submit“ klickt unten rechts „show probabilities“ aktivieren – siehe Screenshot:

 

 

KI-Texte erkennen: Welche Tools gibt’s noch? 

 

Humans deserve the truth, sagt gptzero. Den Human Content Score berechnet Contentatscale. Und Ensur.it verspricht mehr Integrity in an AI-inhabited world. Und hier geht’s noch zu DetectGPT, das in Tests besser abschneidet, aber höhere Rechenleistung benötigt.

 

Und was ist mit Digital Watermarks? 

 

Aktuell sind watermarks derzeit noch nicht im Einsatz, so OpenAI. Aber wie würden die überhaupt funktionieren? Noch ein Exkurs in die Statistik: Menschliche und natürliche Texte folgen einem Muster. Diese Muster lassen sich statistisch darstellen. Die zugrundeliegenden Wahrscheinlichkeiten dieser Muster bedingen die Texterzeugung. Auf das erste Wort folgt ein möglichst wahrscheinliches zweites Wort – und so fort. Eine Möglichkeit, einen Text zu „watermarken“ ist, die Satzstruktur zu verändern. Zu randomisieren. Aber eigentlich nur zu pseudo-randomisieren. Denn ein trainiertes System kann diese Pseudo-Randomisierung erkennen und daraus schließen, dass der Text künstlich generiert ist. Ein Mensch hat nicht die geringste Ahnung, dass irgendwas am Text pseudo-randomisiert – oder eben faul ist. Hier gibt’s mehr Informationen für die, die es genauer wissen wollen.

 

Fazit: Ein Wett-Rüsten um das Erkennen natürlicher Sprache

 

Insgesamt betrachtet wirkt es wie ein Wettrennen. Immer bessere Sprachmodelle produzieren immer bessere Texte und die Detektoren entwickeln sich weiter. Aber immer einen Schritt hintendran. Digital watermarks sind derzeit Zukunftsmusik und können nach Aussage von OpenAI auch leicht umgangen werden: Wenn man den Text umschreibt. KI Texte erkennen: Funktionieren die Detection Tools? Nicht wirklich gut.

 

und hier noch der Prompt zum Beitragsbild: stable diffusion 2.1: detective, close up portrait photo by annie leibovitz, film, studio lighting, detailed skin

Wer hat's geschrieben?

Das könnte Dich auch interessieren:
Minimalistische, quadratische Infografik mit dem Haupttitel "EVOLUTION: PROMPT -> CONTEXT -> SKILLS ENGINEERING". Darunter befinden sich drei farblich kodierte, rechteckige Felder, die durch Pfeile von links nach rechts verbunden sind und einen Entwicklungsprozess darstellen. Das linke, hellblaue Feld ist betitelt mit "PROMPT ENGINEERING". Es enthält eine Ikone einer Gedankenblase mit einem Fragezeichen und einer Lupe über Text. Text darunter: "FOCUS: Single Input", "QUESTION: 'How do I formulate my instruction?'", "GOAL: Perfect the prompt". Ein Pfeil zeigt auf das mittlere, hellorange Feld mit dem Titel "CONTEXT ENGINEERING". Die Ikone zeigt Dokumente, eine Cloud-Datenbank und Zahnräder. Text darunter: "FOCUS: Information", "QUESTION: 'What information does the AI need?'", "GOAL: Provide background data". Ein weiterer Pfeil zeigt auf das rechte, hellgrüne Feld mit dem Titel "SKILLS ENGINEERING". Die Ikone zeigt ein Flussdiagramm mit Entscheidungsknoten und einem abgehakten Kontrollkästchen. Text darunter: "FOCUS: Process Knowledge", "QUESTION: 'What process knowledge does the AI need?'", "GOAL: Optimize action competence". Am unteren Rand der Grafik fasst eine Zeile das Ergebnis der Evolution zusammen: "OPTIMIZES: Single Interactions -> Knowledge State -> Action Competence".
KI im Einsatz
Skills Engineering: Ist das was Neues oder die Weiterentwicklung von Prompt- und Context Engineering?

Nach Prompt Engineering kam Context Engineering. Jetzt zeichnet sich ab, was als Nächstes kommt: Skills Engineering. Ich rechne damit, dass der Begriff in den kommenden Monaten zunehmend auftaucht. Denn die Entwicklung dahin, was damit gemeint ist, ist sinnvoll und konsequent, wenn man bessere Ergebnisse mit KI erzielen will. Was ist Skills Engineering? „Skills Engineering beschreibt die Kompetenz, menschliches Prozesswissen so aufzubereiten, dass KI-Agenten es nutzen können.“ (Vroni) Das klingt abstrakt, meint aber etwas sehr Konkretes.

Weiterlesen »
Aktuelles
Nano Banana 2: Pro-Qualität zum Flash-Preis?

Google hat letzte Woche Nano Banana 2 veröffentlicht, technisch das Modell Gemini 3.1 Flash Image. Es ersetzt Nano Banana Pro als Standard in der Gemini-App und soll Pro-Level-Qualität bei deutlich höherer Geschwindigkeit und rund halbem Preis liefern. Ich hab’s direkt gegen Pro antreten lassen. Mein erster Eindruck: Nano Banana 2 ist verdammt nah dran. Aber vor allem ist es schnell. Geschwindigkeit als echter Hebel Während man bei Pro teilweise Minuten auf ein einzelnes Bild warten

Weiterlesen »
Aktuelles
Die neue Knappheit: Warum mehr Content weniger wert ist

Content kostet fast nichts mehr. Ein Blogpost? Fünf Minuten mit Claude. Zehn Social-Media-Varianten? Noch mal drei Minuten. Ein kompletter Redaktionsplan für sechs Monate? Eine Stunde, wenn man gründlich ist. Die Produktionskosten sind auf nahezu Null gefallen. Und genau deshalb ist die meiste Content-Strategie, die ich sehe, gerade dabei, wertlos zu werden. Das klingt paradox. Aber die Ökonomie ist eindeutig: Wenn etwas im Überfluss existiert, verliert es seinen Wert. Was knapp bleibt, wird kostbar. Content ist

Weiterlesen »
KI News
Dein KI-Anbieter wurde gerade zum Sicherheitsrisiko erklärt. Was jetzt?

Am Freitag hat die US-Regierung Anthropic auf eine Stufe mit Huawei gestellt. Nicht wegen Spionage, nicht wegen Verbindungen zu feindlichen Staaten, sondern weil das Unternehmen sich weigerte, zwei Sicherheitsleitplanken aus einem Pentagon-Vertrag zu entfernen: keine Massenüberwachung von US-Bürgern, keine vollständig autonomen Waffensysteme. Wenige Stunden später verkündete OpenAI, den frei gewordenen Platz übernommen zu haben. CEO Sam Altman behauptete, sein Deal enthalte dieselben Sicherheitsprinzipien. Aber wer genau hinschaut, sieht: OpenAI hat den entscheidenden Kompromiss gemacht, den

Weiterlesen »
Ein Detailfoto, das eine Hand eines Geschäftsmannes im Anzug zeigt, die aus einer Spraydose mit dem Etikett „AI WASHING“ einen cyanfarbenen Dunst auf eine rissige Betonwand sprüht. Die Spraydose ist eine silberne Metalldose mit einem goldfarbenen Etikett und einem schwarzen Sprühkopf, die er mit Daumen und Zeigefinger hält. An seiner Hand trägt er einen goldenen Ehering und eine goldene Armbanduhr mit einem hellen Zifferblatt, die am Handgelenk sichtbar ist. Auf der rissigen Betonwand sind links einige Wörter eingeritzt, darunter „DOWNSIZING“, „LAYOFFS“, „DOWNSIZING“, „BUDGET“ und „AUSTERITY“, die alle grau und schwer lesbar sind. Der cyanfarbene Dunst, der aus der Spraydose sprüht, bildet auf der Wand eine leuchtend cyanfarbene, digitale Oberfläche mit Schaltkreisen, Icons und leuchtenden Wörtern. Oben links auf dieser Oberfläche steht „AI INNOVATION“, darunter „FUTURE EFFICIENCY“ und ganz unten „AUTOMATION“. Der Geschäftsmann steht rechts und sprüht den Dunst auf die linke Seite der Wand, wodurch die graue Wand mit den negativen Wörtern übermalt wird. Der Hintergrund ist ein unscharfer, dunkler Büroraum mit einigen Schreibtischen und Lampen. Die Betonwand ist links rissig und uneben, rechts wird sie durch die digitale, leuchtende Oberfläche glatt und modern.
Aktuelles
AI-Washing: Wenn „KI-Transformation“ Entlassungen bedeutet

Block, das Unternehmen hinter Square und Cash App, hat gestern 4.000 Menschen entlassen, das entspricht 40 Prozent der Belegschaft. CEO Jack Dorsey nennt es eine strategische Entscheidung für die KI-Zukunft. Für die Betroffenen klingt „intelligence-native company“ vermutlich anders als für die Investoren, die den Kurs nach oben trieben. Und für alle, die sich fragen, was KI tatsächlich mit Arbeitsplätzen macht, lohnt sich ein genauerer Blick – auf die Zahlen, die Narrative und die Forschung dahinter.

Weiterlesen »
KI im Einsatz
Der Bullshit Benchmark: Was passiert, wenn KI-Modelle auf Unsinn hereinfallen

55 Fragen, jede einzelne davon Unsinn. Und die meisten Sprachmodelle haben brav geantwortet, als wäre alles völlig plausibel. Peter Gostev, AI Capability Lead bei Arena, hat mit seinem „Bullshit Benchmark“ etwas sichtbar gemacht, das ich seit 2022 in jeder Schulung predige: Die gefährlichste Eigenschaft von Sprachmodellen ist nicht, dass sie Fehler machen. Es ist, dass sie Fehler machen, die sich richtig anfühlen. Was der Bullshit Benchmark testet Die Idee ist so simpel wie entlarvend: Gostev

Weiterlesen »

Hey Kreativer. Willst du AI Art Director werden? 🎨

Dann ab ins kostenfreie Info-Webinar am 19.03. um 12:00 Uhr. 

🚀 Exklusive Back-to-School-Aktion 🚀

Spare 880 € beim KI-Marketing-Bootcamp!

Bring eine Kolleg*in mit und erhalte 50% Rabatt für deine Begleitung.

Nur für kurze Zeit und solange Kontingent reicht! Aktion endet am 16. September 2024.

Abonniere unseren Newsletter 🥳