Erkennungssoftware für ChatGPT Wer schreibt hier: Mensch oder Maschine?
Die Entwickler des Chatbots ChatGPT haben eine neue Software veröffentlicht, die erkennen soll, ob der Text von einem Bot oder einem Menschen geschrieben wurde. Doch noch funktioniert das Programm nur mäßig.
Die Macher der Software ChatGPT versuchen nun, die Folgen ihrer Erfindung in den Griff zu bekommen. Die Entwicklerfirma OpenAI veröffentlichte ein Programm, das unterscheiden soll, ob ein Text von einem Menschen oder einem Computer geschrieben wurde. Das teilte das Unternehmen in einem Blogpost mit.
Trickserei und Desinformation
ChatGPT ist ein kostenloses Programm, das Texte als Antwort auf eine Eingabeaufforderung generiert: darunter Artikel, Aufsätze, Witze und sogar Gedichte. Seit seinem Debüt im November hat es große Popularität erlangt, während es gleichzeitig Bedenken hinsichtlich Urheberrecht und Plagiaten weckt.
Der Chatbot ist eine Software auf Basis künstlicher Intelligenz (KI), die auf gewaltigen Mengen von Texten und Daten trainiert wurde, menschliche Sprache nachzuahmen. Dies kann ChatGPT so gut, dass es unter anderem Sorgen gibt, damit könnte bei Schul- und Studienarbeiten geschummelt oder im großen Stil Desinformations-Kampagnen erstellt werden. So kann das Programm etwa überzeugend völlig falsche Angaben zwischen korrekte Informationen mischen.
Software "Classifier" kann ausgetrickst werden
Die neue Software von OpenAI - der sogenannte "Classifier" - ist ein Sprachmodell, das auf einem Datensatz mit Paaren von von Menschen geschriebenen und von KI geschriebenen Texten zum selben Thema trainiert wurde und von KI geschriebene Texte unterscheiden soll. Es nutzt eine Reihe von Anbietern, um Probleme wie automatisierte Fehlinformationskampagnen und akademische Unredlichkeit anzugehen.
Doch noch funktioniert die Erkennung eher mittelmäßig, wie OpenAI in dem Blogeintrag gestern einräumte. Bei Texten mit weniger als 1000 Zeichen laufe das Erkennungswerkzeug unzuverlässig. Zudem könne der Text so von der KI geschrieben werden, den "Classifier" auszutricksen.
In Testläufen habe die Software in nur 26 Prozent der Fälle korrekt von einem Computer geschriebene Texte identifiziert. Zugleich seien aber auch neun Prozent der von Menschen formulierten Texte fälschlicherweise einer Maschine zugeordnet worden. Deshalb empfehle man vorerst, sich bei der Bewertung der Texte nicht hauptsächlich auf die Einschätzung des "Classifiers" zu verlassen.
Wettlauf Chatbot gegen Erkennungssoftware
Mittlerweile gibt es aber auch andere Programme wie GPTZero, die von der Stanford Universität entwickelte Software DetectGPT oder GTP-2 Output Detector Demo, die Lehrern oder Dozenten helfen sollen, von ChatGPT generierte Texte zu erkennen. Auch die Plagiats-Plattform Turnitin arbeitet derzeit an einer Software, die feststellen soll, ob Aufsätze oder Arbeiten von einem Chatbot oder von einem Menschen geschrieben wurden. Doch auch bei den diesen Programmen gibt es noch Probleme bei der Erkennung.
In den USA wurde in einigen Schulen die Nutzung des Chatbots bereits verboten, in Frankreich hat etwa die Eliteuniversität Sciences Po den Einsatz von ChatGPT untersagt. Andere Schulen haben dagegen angekündigt, nun häufiger handschriftliche Aufsätze und Prüfungen durchführen zu lassen.
Kommt bald Googles Chatbot?
Google entwickelt ebenfalls seit Jahren Software, die wie ein Mensch schreiben und sprechen kann, sah bisher aber vor einer Veröffentlichung ab. Nun lasse der Internet-Konzern aber Mitarbeiter einen Chatbot testen, der ähnlich wie ChatGPT funktioniere, berichtete der Sender CNBC in der Nacht. In einer internen E-Mail heiße es, dass eine Antwort auf ChatGPT Priorität habe. Google experimentiere auch mit einer Version seiner Internet-Suchmaschine, die mit Fragen und Antworten arbeite.