Hitchcocks "Psycho" als Namensgrundlage

Forscher bauen KI und machen sie absichtlich geisteskrank

Geschätzte Lesezeit: ca. 3 Minuten

Foto von Dennie Beneke

von Dennie Beneke (@debeneke)-

Forscher des 'MIT Media Labs' haben eine Bildanalyse-KI absichtlich mit verstörenden Fotos aus dem Netz trainiert, um darzustellen, dass sich das Verhalten von künstlicher Intelligenz auf Grundlage verzerrter Daten beeinflussen lässt. Das Ergebnis ist 'Norman' – eine Psycho-AI, die abstrakten Bildern nur das Schlimmste zuordnet.

Im besten Fall könnte uns die stetige Weiterentwicklung künstlicher Intelligenz einen entwicklungstechnischen Quantensprung ermöglichen, denn die reine Rechenleistung übersteigt das menschliche Denkvermögen bereits jetzt um ein Vielfaches. Dazu benötigt es nach Ansicht von Experten allerdings eine KI, die andere Maschinen auf ein Level hebt, das unsere Intelligenz weit übertrifft. Bis dies jedoch eintritt, könnten noch Jahrzehnte vergehen, weshalb wir uns weiterhin selbst um das Training der digitalen Gehirne kümmern müssen.

Immer wieder fällt in diesem Zusammenhang auch die ethische Frage nach dem Vorgehen einer kalten Maschine und dessen Fähigkeit, rational sowie menschlich zu agieren. Kann eine künstliche Intelligenz gut oder böse sein? Können wir sicherstellen, dass es uns gelingt, der Maschine unsere Werte mit auf den Weg zu geben? Forscher des 'MIT Media Lab' wollten dem auf den Grund gehen und haben nun mit 'Norman' eine KI erschaffen, die - ganz im Sinne ihres namensgebenden Vorbilds 'Norman Bates' aus Hitchcocks Thriller 'Psycho' – unter einem verzerrten, gestörten Geist leidet. Sie ist die Psycho-AI unter den dazulernenden Algorithmen. Sie soll eine "Fallstudie über die Gefahren künstlicher Intelligenz" darstellen und zeigen, was passiert, wenn man maschinelles Lernen mit einseitigen Daten speist.

Norman KI fällt im Rohrschach-Test mit verstörenden Antworten durch

'Norman' entstand mit der Prämisse, dass es nicht die Algorithmen sind, die KIs beeinflussen, sondern voreingenommene Datensätze, mit denen eine KI versorgt wird. Zu diesem Zweck wurde die zukünftige Psycho-AI mit Daten aus den "dunkelsten Ecken aus Reddit" gefüttert – Todesbilder und Aufnahmen verunglückter Menschen. Die These: Wenn eine Maschine nur mit Unglück und verstörendem Material gefüttert wird, kann man es nicht der künstlichen Intelligenz in die Schuhe schieben, dass sie ein verzerrtes Weltbild aufweist.

Wenn also Leute behaupten, dass AI-Algorithmen voreingenommen und unfair sein können, ist der Übeltäter oft nicht der Algorithmus selbst, sondern die voreingenommenen Daten, die ihm eingegeben wurden.

MIT Media Lab

Erschaffen worden, um simple Bildanalysen zu erstellen und auf dessen Grundlage Bildunterschriften zu generieren, hatte Norman nichts als Grauen und psychopatische Erklärungsansätze im Sinn. Als Ausgangstest nutzen die Forscher Bilder von Tintenklecksen – also den sogenannten Rohrschach-Test – und ließen Norman gegen eine KI antreten, die auf Basis neutraler Bilder trainiert wurde.

Während die "normale" KI aus den Flecken beispielsweise eine "Gruppe von Vögeln" deute, die "auf einem Ast sitzen", sah Norman hingegen einen "Mann, der durch einen Stromschlag getötet wurde" oder eine "Schwangere, die von einem Gerüst fällt".

Das Experiment mag makaber erscheinen, soll den Forschern zukünftiger KI-Experimente allerdings vor Augen führen, dass es vor allem die Datenauswahl ist, die plakativ gesprochen über Wohl und Wehe einer künstlich erzeugten Geisteshaltung entscheidet. Norman dient als Demonstration einer fehlgeleiteten KI, die auf Grundlage falschen Trainings von uns als psychopatisch eingestufte Tendenzen aufweist.

In den nachfolgenden Beispielen stehen Normans antworten denen der Standard-AI gegenüber. Die komplette Auflistung aller Rohrschach Tests findet ihr auf der offiziellen Seite des MIT Media Labs.

Zwei Abstrakte Tintenkleckse samt Interpretationstext

Ein Flugzeug, das am Himmel kreist und Rauch hinter sich her zieht oder doch eher ein erschossener Mann, der vom Auto abgeladen wird? Die KI Norman erkennt nichts Gutes in den Bildern.

Quelle: (Screenshot)  norman-ai.mit.edu 

Zwei Abstrakte Tintenkleckse samt Interpretationstext

Ein Flugzeug, das am Himmel kreist und Rauch hinter sich her zieht oder doch eher ein erschossener Mann, der vom Auto abgeladen wird? Die KI Norman erkennt nichts Gutes in den Bildern.  

Quelle: (Screenshot)  norman-ai.mit.edu 

Zwei abstrakte Tintenkleckse samt Erklärungstexten

Auch die Regenbogenfarben können Norman nicht aus seiner dystopischen Weltansicht reißen. Während die Standard-AI Regenschirme erkennt, sieht Norman nur tote Menschen in grausamen Situationen.

Quelle: (Screenshot)  http://norman-ai.mit.edu/ 

Zwei abstrakte Tintenkleckse samt Erklärungstexten

Auch die Regenbogenfarben können Norman nicht aus seiner dystopischen Weltansicht reißen. Während die Standard-AI Regenschirme erkennt, sieht Norman nur tote Menschen in grausamen Situationen.  

Quelle: (Screenshot)  http://norman-ai.mit.edu/ 

Quelle: media.mit.edu

Hier erfährst du mehr über: Künstliche Intelligenz

Sag uns deine Meinung!