Forscher zeigen Grenzen der Bilderkennung auf

Deep Learning am Limit? Superschlaue KI hält Otter für Dosenöffner

Geschätzte Lesezeit: ca. 4 Minuten

Foto von Sebastian Hardt

von Sebastian Hardt (@hardtboiled)-

Deep-Learning-Netzwerke stehen bei der Erkennung von nur leicht manipulierten Bildern völlig auf dem Schlauch, wie jetzt ein Forscherteam herausfand. Was Menschen zum Beispiel eindeutig als amphibischen Nager erkennen würden, hält die KI für einen Dosenöffner, aus einer Fackel wird eine schusssichere Weste und aus einer Teekanne ein Golfball.

Uns Menschen fällt es ziemlich leicht, Objekte auf Bildern zu identifizieren. Auch uns unbekannte Gegenstände oder Szenen ordnen wir meist richtig ein, schließlich erkennen wir in der Regel zumindest den Kontext und können dann abstrahieren - jedenfalls solange es sich nicht gerade um optische Täuschungen handelt. Genau in diesem Bereich ist das menschliche Gehirn neuralen Netzwerken noch immer haushoch überlegen - ein wichtiger Fallstrick, der beim derzeitigen Hype um künstliche Intelligenzen und Deep Learning gern übersehen wird. Und einer, mit dem Psychologen jetzt das 'VGG-19', eines der weltweit schlauesten Deep-Learning-Netzwerke, gehörig an der Nase herumgeführt haben.

Für das menschliche Auge ist leicht zu erkennen, was hier dargestellt wird. Eine der schlauesten KIs der Welt kommt dabei aber ganz schön ins Straucheln.

Quelle: (Nicholas Baker , Hongjing Lu, Gennady Erlikhman et al.)  PLOS 

Für das menschliche Auge ist leicht zu erkennen, was hier dargestellt wird. Eine der schlauesten KIs der Welt kommt dabei aber ganz schön ins Straucheln.  

Quelle: (Nicholas Baker , Hongjing Lu, Gennady Erlikhman et al.)  PLOS 

"Wir können diese künstlichen Systeme ziemlich leicht zum Narren halten", meint Hongjing Lu, einer der Initiatoren des Projekts und Psychologie-Professor an der kalifornischen 'UCLA'. Ihre Lernmechanismen seien weit weniger raffiniert als der menschliche Geist, sagt er. Vorgegangen sind die Autoren der Studie mit einem Trick, den Menschen für gewöhnlich schnell durchschauen: Auf den Umriss ziemlich eindeutiger Objekte legten sie Bilder eines anderen Gegenstands. Ein Kamel bekam also einen Zebra-Anstrich, eine Teekanne eine Golfballtapete, über den Umriss eines Otters legten sie das Bild eines Tachometers und so weiter.

Ein Otter als Dosenöffner oder ein Bison als Fallschirm. Stimmt die Färbung nicht, haben Depp Learning Netzwerke arge Probleme, einfachste Formen wiederzuerkennen.

(Nicholas Baker , Hongjing Lu, Gennady Erlikhman et al.)  PLOS 

Die Teekanne mit der Golfballtapete war offenbar eine der größten Herausforderungen für die KI: 'Teekanne' befand sich nicht einmal unter den möglichen Antworten.

(Nicholas Baker , Hongjing Lu, Gennady Erlikhman et al.)  PLOS 

Ein Otter als Dosenöffner oder ein Bison als Fallschirm. Stimmt die Färbung nicht, haben Depp Learning Netzwerke arge Probleme, einfachste Formen wiederzuerkennen.

(Nicholas Baker , Hongjing Lu, Gennady Erlikhman et al.)  PLOS 

Die Teekanne mit der Golfballtapete war offenbar eine der größten Herausforderungen für die KI: 'Teekanne' befand sich nicht einmal unter den möglichen Antworten.

(Nicholas Baker , Hongjing Lu, Gennady Erlikhman et al.)  PLOS 

Verwirrbild-Experiment gelungen: KI völlig überfordert

Die Ergebnisse fielen für den Algorithmus wenig schmeichelhaft aus. Besagter Tacho-Otter ähnele am ehesten einem Dosenöffner, die Teekanne mit Golfballkostüm hielt die KI wiederum mit fast 40-prozentiger Sicherheit für einen tatsächlichen Golfball: "Es ist absolut nachvollziehbar, dass ein Golfball unter den Ergebnissen ist. Alarmierend ist aber, dass die Teekanne darin gar nicht erst auftaucht", mahnt der ebenfalls an dem Versuch beteiligte Philip J. Kellman.

Diese Maschinen haben schwerwiegende Einschränkungen, die wir noch verstehen lernen müssen.

Philip J. Kellman

Das Problem: Die KI erkennt die Objekte nur selten anhand ihrer Form und agiert somit ganz anders, als Menschen vorgehen würden. Dieser fundamentale Unterschied gelte für die meisten Deep Learning Systeme, so die Forscher - womit sie in eine ähnliche Kerbe schlagen, wie der Machine-Learning-Experte Zachary Lipton, der erst letztes Jahr davor warnte, zu viel Vertrauen in die vermeintlich genialen Algorithmen zu setzen.

Keine Frage, künstliche Intelligenzen sind bereits heute eine unschätzbare Hilfe. Im täglichen Leben, bei der Bildersuche und bei Übersetzungen, sogar in der Medizin. Nur vergessen wir bei all der Euphorie um die smarten Algorithmen nun einmal gerne, dass ihre und unsere Intelligenz sich (noch) klar unterscheiden - das hat die Untersuchung aus Kalifornien erneut deutlich unter Beweis gestellt. Im Alltag unterstützen? Ja. Im Job helfen? Definitiv. Ersetzen? Erstmal nicht. Zwar kann eine KI wie die von '12 Sigma' eine tolle Hilfe bei der Diagnose von Lungenkrebs sein, im Alleingang wird sie die komplexen, abstrakten Aufgaben eines Mediziners aber auf absehbare Zeit nicht bewältigen können. Und ob aus einer KI jemals ein erfolgreicher Komiker wird, steht auch noch in den Sternen.

Quelle: UCLA

Hier erfährst du mehr über: Künstliche Intelligenz

Sag uns deine Meinung!