Viele KI-Detektoren behaupten, dass sie mit einer gewissen Genauigkeit erkennen können, ob ein Text von einem Menschen oder von einer Software mit künstlicher Intelligenz geschrieben wurde oder nicht.
Diese Detektoren sind jedoch ziemlich umstritten. Einige Leute behaupten, sie würden nicht funktionieren, und andere gehen sogar so weit, sie als Betrug zu bezeichnen.
Dennoch haben Schulleiter, Marketing-Manager, Lehrer und viele mehr Menschen bestraft, weil sie Inhalte geschrieben haben, die von KI-Detektoren erkannt wurden. Wie nützlich sind sie also wirklich?
Ein KI-Detektor ist ein Softwaretool, mit dem Inhalte identifiziert werden können, die von Systemen der künstlichen Intelligenz (KI) erzeugt wurden. Im Wesentlichen unterscheidet es zwischen von Menschen erstellten Inhalten und Inhalten, die von KI-Algorithmen wie ChatGPT erzeugt werden.
KI-Detektoren sehen Plagiatsprüfern sehr ähnlich. Sie vergeben eine prozentuale Punktzahl: 0 % bedeutet, dass eine Wahrscheinlichkeit von 0 % besteht, dass der Text von einer künstlichen Intelligenz geschrieben wurde. 100% bedeutet, dass der Detektor zu 100% sicher ist, dass der Text von einer KI geschrieben wurde.
Wenn es also um KI-Detektoren geht, wollen wir niedrige Punktzahlen.
Dieses Prozentmodell kann irreführend sein. Eine Punktzahl von 40 % könnte den Eindruck erwecken, dass 40 % des Artikels von einer KI geschrieben wurden, aber in Wirklichkeit bedeutet es, dass das Programm nur zu 40 % sicher ist, dass der Text von einer KI geschrieben wurde. (Und was bedeutet das? Eigentlich nichts.) Einige KI-Erkennungsprogramme heben sogar bestimmte Textabschnitte hervor, als ob es sich dabei um die Teile des Textes handelte, die von KI geschrieben wurden.
Ein Lehrer, der schon einmal Plagiatsprüfgeräte eingesetzt hat, könnte sich zum Beispiel Sorgen über diese Prozentsätze machen, denn wenn eine Arbeit zu 40 % plagiiert ist, wäre das ein Grund für eine Disziplinarmaßnahme. Aber ein Ergebnis von 40 % bei einem KI-Detektor kann unklar und subjektiv sein.
Einige Beispiele für Websites, die behaupten, von KI geschriebenen Text erkennen zu können, sind:
Hier ist ein Screenshot eines KI-Erkennungsergebnisses von Originality.ai, das auf seiner Homepage behauptet, eine "99%ige KI-Erkennungsgenauigkeit" zu haben.
Das Programm ist zu etwa 70 % sicher, dass der Text von einer KI-Software geschrieben wurde, was bedeutet, dass die Wahrscheinlichkeit sehr groß ist, dass der Text von einer KI-Software geschrieben wurde. Eine Person, die diesen Text geschrieben hat, könnte wegen einer so hohen KI-Punktzahl in der Schule oder bei der Arbeit Ärger bekommen.
Es gibt nur ein Problem: Der Text, den Originality.ai auf dem Foto "mit 99%iger Genauigkeit" gescannt hat, sind die ersten 100 Wörter aus "Die Kunst des Krieges " von Sun Tzu, das im fünften Jahrhundert v. Chr. geschrieben wurde. Wir können also zu 100% sicher sein, dass es nicht von ChatGPT geschrieben wurde.
Dies führt uns zu der grundsätzlichen Frage: Sind KI-Detektoren genau? Nein.
OpenAI bestätigt, dass KI-Detektoren nicht funktionieren. Die Cornell University veröffentlichte eine Arbeit, in der sie darauf hinwies, dass KI-Detektoren gegen englische Nicht-Muttersprachler voreingenommen sind. Dennoch haben Universitätsprofessoren ganze Klassen von Studenten durchfallen lassen, weil ChatGPT auf Nachfrage die Anerkennung ihrer Arbeit forderte.
Einige Leute behaupten jedoch, dass KI-Detektoren durchaus glaubwürdig sind, sie bieten nur keine so eindeutigen Antworten, wie es vielleicht den Anschein hat.
Diese Programme haben in der Regel eine niedrige Rate an falsch-negativen, aber eine hohe Rate an falsch-positiven Ergebnissen. Mit anderen Worten: Wenn eine KI-Erkennungssoftware sagt, dass etwas keine KI ist, dann können Sie ziemlich sicher sein, dass es keine KI ist. Aber wenn sie sagt, dass etwas KI ist , dann bedeutet das oft gar nicht viel. Und wenn Ihnen jemand vorwirft, dass Sie künstliche Intelligenz verwenden, weil Sie ein hochprozentiges Ergebnis von einem KI-Detektor erhalten haben, dann fragen Sie ihn, ob er dieselbe Logik auf Sun Tzu anwendet.
Wenn Sie wirklich wissen wollen, ob jemand künstliche Intelligenz verwendet, um seine Arbeit zu schreiben, können Sie ihn bitten, in Google Docs zu schreiben und Ihnen den Link zur Verfügung zu stellen. Auf diese Weise können Sie den Verlauf des Dokuments aufrufen und die Zeitstempel sehen, um zu prüfen, wie lange die Person für das Schreiben gebraucht hat.
Originality.ai hat ein Chrome-Plugin, mit dem Sie eine Aufzeichnung des Schreibprozesses eines beliebigen Google-Dokuments anzeigen können, auch wenn die Ergebnisse der KI-Prüfung ungenau sind. Auf diese Weise können Sie überprüfen, ob jemand an irgendeiner Stelle einen Textabschnitt aus einer externen Quelle eingefügt hat.
Sie sollten also in erster Linie Ihre Texte auf Richtigkeit und Plagiate prüfen, bevor Sie sie auf KI untersuchen. ChatGPT hat zwar die KI ins Licht der Öffentlichkeit gerückt, macht aber immer noch viele Fehler, wie z. B. das Kopieren großer Textabschnitte aus vielen Quellen im Internet und Halluzinationen. Es gibt andere Unternehmen (wie TypeTone), die ein hochwertigeres Produkt anbieten und nicht plagiieren.
Während ein Mensch plagiieren kann, indem er Textteile aus verschiedenen Quellen übernimmt, neigen KI-Bots geringerer Qualität dazu, kleine Textteile aus vielen verschiedenen Quellen zu kopieren. Aber wenn sich diese kleinen Plagiate summieren, kann immer noch ein großer Teil des Textes ein Plagiat sein. Und während wir festgestellt haben, dass eine hohe KI-Punktzahl nicht viel bedeutet, ist eine hohe Plagiatszahl in den meisten akademischen und beruflichen Umgebungen ein ernstes Problem.
Denken Sie an das Sprichwort: "Irren ist menschlich". Menschen machen Fehler, und KI-Detektoren wissen das. Das heißt, wenn eine Arbeit voller grammatikalischer Fehler und umständlichem Text ist, kann das bedeuten, dass sie von den KI-Erkennern eine bessere Bewertung erhält. Wenn ein Text grammatikalisch korrekt ist, wird er mit größerer Wahrscheinlichkeit als von der KI geschrieben eingestuft.
KI wurde von Menschen entwickelt, und das bedeutet manchmal, dass sie menschliche Vorurteile hat. So wurde KI-Detektoren vorgeworfen, dass sie härter urteilen, wenn sie Inhalte überprüfen, die von Menschen geschrieben wurden, die Englisch als Zweitsprache sprechen. Englische Muttersprachler schreiben möglicherweise in einem internationalen, neutralen Englisch, das weniger auf Slang und lokale Redewendungen zurückgreift. KI-Detektoren könnten dies als eher von ChatGPT verfasst einstufen.
Wenn Sie eine Software wie Grammarly verwenden, die Sie beim Korrekturlesen und Überprüfen Ihrer Grammatik unterstützt, ist die Wahrscheinlichkeit größer, dass Ihr Text aus denselben Gründen wie oben erwähnt als von einer KI geschrieben gekennzeichnet wird.
In diesem Sinne kann es den Anschein haben, als würden KI-Detektoren Texte bestrafen, die grammatikalisch korrekt sind. Merken Sie sich also: Eine niedrige KI-Bewertung ist nicht gleichbedeutend mit einem guten Text, und eine hohe KI-Bewertung ist nicht gleichbedeutend mit einem schlechten Text.
Wir bei TypeTone wissen, wie wichtig es ist, die Einzigartigkeit Ihres Tons und Ihrer Stimme zum Ausdruck zu bringen. Künstliche Intelligenz muss nicht unkreative, plagiierte und ungenaue Inhalte produzieren. Unser digital workers und unser Chatbot entsprechen den modernsten EU-Tech-Regeln, und wir legen ein Qualitätsbewusstsein an den Tag, das über unseriöse Versprechen hinausgeht.
Typetone bietet KI-Mitarbeiter und ein KI-Chat-Tool, das perfekt für moderne Marketing-Teams ist. Unsere KI-Software ist einfach besser - sie ist sicher, befolgt die Regeln (GDPR-Compliance, check!) und passt perfekt zu Ihrer Marke.
Probieren Sie Typetone Chat aus und sehen Sie, wie es Ihre Marketingziele verbessern kann. Vereinbaren Sie noch heute einen Termin für eine Demo!