Hitchcocks "Psycho" als Namensgrundlage
Forscher bauen KI und machen sie absichtlich geisteskrank
Geschätzte Lesezeit: ca. 3 Minuten
Forscher des 'MIT Media Labs' haben eine Bildanalyse-KI absichtlich mit verstörenden Fotos aus dem Netz trainiert, um darzustellen, dass sich das Verhalten von künstlicher Intelligenz auf Grundlage verzerrter Daten beeinflussen lässt. Das Ergebnis ist 'Norman' – eine Psycho-AI, die abstrakten Bildern nur das Schlimmste zuordnet.
Im besten Fall könnte uns die stetige Weiterentwicklung künstlicher Intelligenz einen entwicklungstechnischen Quantensprung ermöglichen, denn die reine Rechenleistung übersteigt das menschliche Denkvermögen bereits jetzt um ein Vielfaches. Dazu benötigt es nach Ansicht von Experten allerdings eine KI, die andere Maschinen auf ein Level hebt, das unsere Intelligenz weit übertrifft. Bis dies jedoch eintritt, könnten noch Jahrzehnte vergehen, weshalb wir uns weiterhin selbst um das Training der digitalen Gehirne kümmern müssen.
Immer wieder fällt in diesem Zusammenhang auch die ethische Frage nach dem Vorgehen einer kalten Maschine und dessen Fähigkeit, rational sowie menschlich zu agieren. Kann eine künstliche Intelligenz gut oder böse sein? Können wir sicherstellen, dass es uns gelingt, der Maschine unsere Werte mit auf den Weg zu geben? Forscher des 'MIT Media Lab' wollten dem auf den Grund gehen und haben nun mit 'Norman' eine KI erschaffen, die - ganz im Sinne ihres namensgebenden Vorbilds 'Norman Bates' aus Hitchcocks Thriller 'Psycho' – unter einem verzerrten, gestörten Geist leidet. Sie ist die Psycho-AI unter den dazulernenden Algorithmen. Sie soll eine "Fallstudie über die Gefahren künstlicher Intelligenz" darstellen und zeigen, was passiert, wenn man maschinelles Lernen mit einseitigen Daten speist.
Norman KI fällt im Rohrschach-Test mit verstörenden Antworten durch
'Norman' entstand mit der Prämisse, dass es nicht die Algorithmen sind, die KIs beeinflussen, sondern voreingenommene Datensätze, mit denen eine KI versorgt wird. Zu diesem Zweck wurde die zukünftige Psycho-AI mit Daten aus den "dunkelsten Ecken aus Reddit" gefüttert – Todesbilder und Aufnahmen verunglückter Menschen. Die These: Wenn eine Maschine nur mit Unglück und verstörendem Material gefüttert wird, kann man es nicht der künstlichen Intelligenz in die Schuhe schieben, dass sie ein verzerrtes Weltbild aufweist.
Erschaffen worden, um simple Bildanalysen zu erstellen und auf dessen Grundlage Bildunterschriften zu generieren, hatte Norman nichts als Grauen und psychopatische Erklärungsansätze im Sinn. Als Ausgangstest nutzen die Forscher Bilder von Tintenklecksen – also den sogenannten Rohrschach-Test – und ließen Norman gegen eine KI antreten, die auf Basis neutraler Bilder trainiert wurde.
Während die "normale" KI aus den Flecken beispielsweise eine "Gruppe von Vögeln" deute, die "auf einem Ast sitzen", sah Norman hingegen einen "Mann, der durch einen Stromschlag getötet wurde" oder eine "Schwangere, die von einem Gerüst fällt".
Das Experiment mag makaber erscheinen, soll den Forschern zukünftiger KI-Experimente allerdings vor Augen führen, dass es vor allem die Datenauswahl ist, die plakativ gesprochen über Wohl und Wehe einer künstlich erzeugten Geisteshaltung entscheidet. Norman dient als Demonstration einer fehlgeleiteten KI, die auf Grundlage falschen Trainings von uns als psychopatisch eingestufte Tendenzen aufweist.
In den nachfolgenden Beispielen stehen Normans antworten denen der Standard-AI gegenüber. Die komplette Auflistung aller Rohrschach Tests findet ihr auf der offiziellen Seite des MIT Media Labs.
Quelle: media.mit.edu
Hier erfährst du mehr über: Künstliche Intelligenz