Ihre Texte wirken zu echt

Diese KI ist so gut, dass die Entwickler sie für gefährlich halten

Geschätzte Lesezeit: ca. 4 Minuten

Foto von Julius Zunker

von Julius Zunker -

Wenn künstliche Intelligenzen überzeugende Tweets verfassen können, könnten sie auch Artikel oder gar Bücher schreiben? Die Antwort war bisher: Nein. Doch mit GPT2, der neuen AI von OpenAI, ist dies nun Realität geworden. Doch den Entwicklern sind die Gefahren eines potentiellen Missbrauchs ihrer Kreation einfach zu groß. GPT2 bleibt - vorerst - hinter Schloss und Riegel.

"Es war ein strahlend kalter Apriltag, und die Uhren schlugen dreizehn", so beginnt George Orwells Meisterwerk der Dystopie "1984". Füttert man GPT2 mit diesem Satz, so erkennt die KI in der kurzen Zeile nicht nur den Stil einer Erzählung, sondern sogar einen futuristischen Ansatz. Die AI ergänzte die originale Eröffnung mit: "Ich war in meinem Wagen auf dem Weg zu meinem neuen Job in Seattle. Ich tankte, steckte den Schlüssel ins Zündschloss und lies den Motor einfach laufen. Ich stellte mir nur vor, wie der Tag werden könnte. In einhundert Jahren von heute aus. Im Jahr 2045 war ich ein Lehrer in einer Schule, irgendwo in einem armen Teil des ländlichen Chinas. Ich begann mit chinesischer Geschichte und Wissenschaftsgeschichte."

GPT2, die KI, die ein zu guter Textgenerator wurde

GPT2 ist eigentlich ein Textgenerator. Egal, womit man das System füttert, von ein paar Worten bis zu einer kompletten Seite, auf Wunsch setzt die KI den Text fort, basierend darauf, wie der Text aus Sicht von GPT2 weitergehen sollte. Die künstliche Intelligenz kann aber auch einen völlig neuen Schriftsatz erschaffen, der sich danach ausrichtet, was ihm an Stil und Thema vorgeben sind. Im Gegensatz zu bisherigen Systemen, die auf derlei ausgerichtet sind, "vergisst" GPT2 jedoch nicht mitten in einem Absatz, worüber es eigentlich schreiben wollte oder stolpert über die eigene Syntax in einem langen Satz.

GPT2 hat quasi 35.000 Romane auswendig gelernt.

Aus Sicht von Entwicklern ist die neue KI aus der Elon-Musk-Schmiede OpenAI in zweifacher Hinsicht bahnbrechend. Laut Dario Amodei, dem Director of Research bei OpenAI, ist dies zum einen die schiere Größe von GPT2. Die Modelle sind zwölf Mal so groß und das Dataset 15 Mal so umfänglich und deutlich breiter als bei bisherigen KI-Modellen. Die Datensammlung, auf die GPT2 zum Lernen losgelassen wurde, umfasst ungefähr 10 Millionen Artikel, allesamt auf Reddit ausgewählt. 40 GB misst dieses Datenset in gesamter Tonnage, genug für 35.000 lange Romane.

Dank dieser Menge an verfüttertem Text hat GPT2 eine beachtliche Schreibe erlernt und fundiertes Wissen darin erlangt, wie bereits geschriebene Inhalte zu verstehen sind - und den zweiten Durchbruch erreicht. GPT2 ist erheblich breiter aufgestellt als andere KIs, die für einen solchen Zweck trainiert wurden. Das System ist in der Lage, Texte zu übersetzen, zusammenzufassen und besteht einfache Tests zum Inhaltsverständnis.

Zu gut für die falschen Hände

Genau diese bahnbrechenden Möglichkeiten haben bei OpenAI zu der Entscheidung geführt, GPT2 bisher nicht zu veröffentlichen. "Wir müssen zunächst in Experimenten ermitteln, was mit GPT2 in den falschen Händen möglich ist und was nicht," begründete Jack Clark, seines Zeichens Head of Policy bei OpenAI. "Wenn du die Möglichkeiten nicht abschätzen kannst, was mit einem Modell machbar ist, musst du herausfinden, was es tun kann. Es gibt weitaus mehr und weitaus kompetentere Menschen als uns, die sich vorstellen können, was mit GPT2 an Schaden angerichtet werden kann."

Microsoft-Bot Tay dient als Negativbeispiel.

Schon die kurze Existenz von Tay, dem Social Bot von Microsoft, hat gezeigt, wie schnell eine KI durch Einflüsse zu einem kleinen Monster trainiert werden kann. Microsofts Experiment mit Tay auf Twitter wurde nach nur 16 Stunden abgebrochen, nachdem der Bot anfing, mit beleidigenden Tweets um sich zu werfen, nachdem Trolle die KI mit einer Unmenge von hasserfüllten Inhalten bombardiert hatten. Tay war in weniger als einem Tag zu einem Freund von Völkermord geworden, zu einem waschechten Internet-Troll, der nur so vor Hass und Hetze strotzte.

Release nach umfassenden Tests als "KI-Reviewer" möglich

Um genau dies zu verhindern, denn GPT2 wird ebenfalls vom Internet lernen können, und um vorauszuschauen, ob sich die KI in den falschen Händen zu einer wahren Schleuder von Fake News, Verschwörungstheorien und Hassrede entwickeln lassen könnte, veröffentliche die Entwickler zunächst eine abgespeckte Version der KI. Mit ihr lässt sich nur eine unendliche Menge an positiven und negativen Produktbewertungen schreiben. Das Ziel von OpenAI ist es, so zu zeigen, was in ein bis zwei Jahren der Standard sein könnte: KIs, die uns geschriebene Inhalte vorgeben. Das Team spricht sich aber auch für eine Regulierung der daraus sich ergebenden Möglichkeiten aus. Es braucht nicht viel, um sich vorzustellen, welche Abgründe sich mit einer künstlichen Intelligenz wie GPT2 aufreißen ließen.

Quelle: The Guardian

Hier erfährst du mehr über: Künstliche Intelligenz

Sag uns deine Meinung!