"Westworld wäre schön"

E3: Westworld-Macher fürchten sich vor "dummer KI"

Geschätzte Lesezeit: ca. 5 Minuten

Foto von Benjamin Krämer

von Benjamin Krämer -

"Wir sollten uns nicht vor künstlicher Intelligenz, sondern vor künstlicher Dummheit fürchten", erklärte 'Westworld'-Mastermind Jonathan Nolan in einer Talkrunde auf der E3. Der Bruder von Star-Regisseur Christopher Nolan - selbst passionierter Gamer - glaubt außerdem, dass wir glücklich sein könnten, wenn uns so eine Zukunft wie in Westworld blüht.

Auf der E3 gibt es nicht nur Gaming-News am laufenden Band, sondern auch interessante Talkrunden mit Stars aus der Unterhaltungsbranche. Diesmal unter anderem mit den Machern der Hit-Serie 'Westworld' von Lisa Joy und Jonathan Nolan, die von Kritikern und Zuschauern gleichermaßen gefeiert wird. In der Serie geht es um einen Freizeitpark, in der Roboter als superrealistischer Menschenersatz eine Wildwest-Welt bevölkern und den Parkbesuchern jede Menge Sex und Gewalt liefern - bis sie ein Bewusstsein erlangen und um ihre Freiheit kämpfen. So weit, so bekannt das Prinzip.

Die Serie kommt ziemlich düster daher und malt ein eher apokalyptisches Szenario, in dem wir uns als Menschen durch Gier nach Brutalität und abgründigen Fantasien selbst abschaffen. Am Ende gar von den KIs ersetzt werden können, die in einer Art Hyper-Evolution an uns vorbeiziehen. Ausgerechnet dieses bittere Bild riss Nolan auf der E3 zu der Aussage hin, dass wir froh sein könnten, wenn die Zukunft so aussehe wie in Westworld.

Wird KI zu intelligent, oder zu dumm?

Roboter vor zerstörter Stadt

Die KI-Apokalypse könnte durch Dummheit geschehen. Unsere und die der Maschinen, die wir schufen.  

Quelle: (Tithi Luadthong)  Shutterstock.com 

Roboter vor zerstörter Stadt

Die KI-Apokalypse könnte durch Dummheit geschehen. Unsere und die der Maschinen, die wir schufen.  

Quelle: (Tithi Luadthong)  Shutterstock.com 

Die aktuell gängigen Ängste lauten eher, dass künstliche Intelligenzen zu intelligent werden, uns dann in allen Bereichen überholen und schließlich auslöschen. Jonathan Nolan aber (schrieb fast sämtliche Drehbücher zu Christopher Nolans Filmen mit) glaubt, dass das Problem nicht sei, dass die KIs zu schlau würden, sondern im Gegenteil zu dumm. Im Grunde meint er damit aber etwas ähnliches, wie die meisten Kritiker moderner Algorithmen: Die Daten übernehmen immer mehr Kontrolle über unseren Alltag, hätten aber keinerlei Gewissen oder Maßstäbe für Moral und Normalität.

Nolan führte aus, dass wir als Gesellschaft mehr über künstliche Moral reden und uns darüber Gedanken machen sollten, denn das Problem sei künstliche Dummheit - also quasi Gefahr durch fehlendes Regelverständnis, einen intuitiven Umgang mit Lebewesen und gewisse Werte, die Menschen aus ihrer Erlebenswelt ziehen könnten.

Was könnte uns bei einer "dummen KI" blühen?

Was Nolan da anspricht, wird schon seit längerem in Fachkreisen diskutiert. Ein sehr beliebtes Beispiel ist die 'harmlose' KI, die programmiert wird mit dem Ziel, menschliche Handschrift nachzuahmen. Dabei wird ihr eingeimpft, dass sie ein möglichst perfektes Ergebnis liefern soll. Wie aber lernt ein Algorithmus? Mittels Machine-Learning: Das bedeutet, dass sie unglaublich viele Trial-and-Error Versuche startet, bis sie etwas gemeistert hat.

So war es zum Beispiel auch bei 'AlphaGO'. Sie spielte einfach so lange unaufhörlich gegen sich selbst, bis sie ein extrem hohes Level erreichte. Wenn die Entwickler der Handschrift-KI sie zum Lernen mit den Daten einer Bücherei füttern, würde das sehr lange dauern. Stattdessen könnten sie unter Erfolgsdruck beschließen, die KI ans Internet anzuschließen, wo sie eine riesige Datenmenge zur Verfügung hat, um ihre Handschrift zu verbessern.

Sie lernt also in kürzester Zeit alles über den Menschen und die Erde und beschließt dann, dass sie ihre Aufgabe, eine perfekte menschliche Handschrift zu imitieren, am besten lösen kann, wenn sie die Menschen tötet. Warum? Weil sie für endlos viele Versuche des Schreibens auf Papier (so schreiben Menschen nun einmal per Hand) sehr viele Bäume braucht, um aus ihnen Papier zu machen. Die Menschen haben aber bereits über 80 Prozent aller Wälder auf der Welt abgeholzt. So könnte sie unser Ende beschließen, weil sie "dumm" war und stupide ihrem einprogrammierten Ziel gefolgt ist.

Das populäre Gedankenexperiment wird in einem Video von 'Green Rabbit' anschaulich erklärt - der Kanal wurde übrigens von uns zu den Top-YouTube-Channels 2017 gewählt:

Was passiert nach der Singularität?

Nolan und Joy sprachen aber auch das Thema Singularität an. Singularität bedeutet hier nicht wie in der Physik "Schwarzes Loch", oder im Sprachgebrauch ein "Unikat", sondern vielmehr technologische Singularität. Das heißt jenen Punkt, an dem eine KI intelligenter wird als wir und sich damit fortan komplett außerhalb unseres Verstehens bewegt. Das hätte laut Experten wie Ray Kurzweil von Google zur Folge, dass die Zukunft der Menschheit mit einem Schlag nicht mehr vorhersehbar sein wird. Nicht einmal für einen Tag, weil KIs unsere Welt umgestalten, ohne, dass wir ihre Schritte begreifen können.

Das wäre dann in etwa so, als versuche eine Ameise zu verstehen, was wir Menschen um sie herum so machen. Diese technologische Singularität ist auch das Zentrum von Westworld, die Nolan und Joy so weiterdenken, dass es zu einer Art Bürgerkrieg kommt, weil die KIs in Form von Robotern in unserem Abbild geschaffen wurden. Dass wir in der Realität den Punkt der Singularität erreichen, gilt den meisten Zukunfts- und KI-Forschern als sicher, gestritten wird eher um die Frage wann. Kurzweil hält dies innerhalb der nächsten 10 bis 30 Jahre für sehr wahrscheinlich.

Westworld und die Gaming-KI

Jonathan Nolan kam im Zuge der Singularitäts-Diskussion auch auf das Thema Game-KI zu sprechen. Ihm und Joy sei es mit ihrer Serie auch darum gegangen zu erforschen, wie sich unsere Wahrnehmung von Moral und Fiktion verändert, wenn Spiele und künstliche Intelligenzen immer realistischer werden. In Westworld geht es schließlich um das perfekte Computerspiel: Von Menschen nicht zu unterscheidende Roboter, die reden und denken wie wir, können in einem abgeschlossenen Raum (dem Spiel/Park) tun und lassen, was sie möchten. Genau wie bei modernen Open-World-Titeln, nur noch realistischer.

Heute seien Spiele-KIs zwar noch nicht annähernd so komplex, aber Menschen seien das eigentlich auch nicht, so Lisa Joy. Wir können ebenso sehr auf psychologische Weise 'gehackt' werden, wie KIs es auf elektronische Weise können. Westworld malt dabei ein recht schwarzes Bild von uns und zeigt, dass wir auf ziemlich barbarische Weise mit Dingen umgehen, die nur als Spiel wahrgenommen werden. Weil wir keine Konsequenzen fürchten und es nicht "echt" ist. In Zukunft könnte die Frage dann sein, wie KIs mit uns umgehen, wenn sie keine Konsequenzen fürchten müssen. Dieser Frage geht Westworld nach - vielleicht ein Vorgeschmack auf das, was uns noch blüht?

Das Gespräch von der E3 könnt ihr hier im Video sehen:

Hier erfährst du mehr über: Künstliche Intelligenz und Video-Streaming

Sag uns deine Meinung!