Deep Fakes und Troll-Bots

Böse KI: Diese 5 Technologien könnten uns das Jahr versauen

Geschätzte Lesezeit: ca. 4 Minuten

Foto von Michael Springer

von Michael Springer -

Alexa, mach die Welt besser! So funktioniert es leider nicht. Künstliche Intelligenz erleichtert zwar viele alltägliche Dinge, aber der Spieß lässt sich auch umdrehen: Diese fünf Technologien offenbaren die Schattenseiten vermeintlich smarter Maschinen.

Technologie ist weder gut noch böse, sagt man. Es kommt nur darauf an, was Menschen mit ihr anfangen – künstliche Intelligenz und maschinelles Lernen sind keine Ausnahme. Klar ist: Ihnen gehört die Zukunft, sie lassen sich nicht aufhalten. Und wenn ausgefeilte Algorithmen Ärzten dabei helfen, Krebs schneller und zuverlässiger zu erkennen, dann ist das wunderbar. Wenn intelligente Roboter Saltos machen, ist das witzig anzuschauen.

Aber das ist leider nur die eine Seite der Medaille. Sei es durch böse Absichten, kriminelle Energie oder nur unglückliche Umstände: Auch wenn künstliche Intelligenz in vielerlei Hinsicht nicht so ausgereift ist, wie man uns oft weismachen möchte, kann sie uns dennoch Schaden zufügen.

Spieglein, Spieglein, an der Wand, wer ist der beste Fake im ganzen Land?

Durch Machine Learning trainierte Software generiert mittlerweile so täuschend echte Bilder von Menschen, dass man selbst auf den zweiten Blick kaum erkennt, dass es sich um Fälschungen handelt. "Wow, sieht das beeindruckend aus", ist die positive Lesart. Welchen Schaden so eine Technologie anrichten kann, zeigen jedoch die sogenannten 'Deep Fakes': Mit künstlicher Intelligenz gefälschte Videos und Bilder, die Politiker, Stars und potenziell jeden Menschen in Situationen, bei Handlungen zeigen, die in Wahrheit nie stattgefunden haben.

Weil die Methoden des 'Deep Learning' kontinuierlich verbessert werden, wird die Qualität solcher Bilder und Videos immer weiter zunehmen und so entstandene Fälschungen werden immer schwieriger zu erkennen sein. Menschen sind von Natur aus geneigt, das zu glauben, was sie sehen. Wenn wir dem, was wir mit eigenen Augen sehen, immer weniger trauen können, ist das ein großes Problem.

Gefällt mir nicht: Bots und Manipulation in sozialen Netzwerken

Als das britische Beratungsunternehmen Cambridge Analytica via Facebook und Co. Einfluss auf den Ausgang der US-Präsidentschaftswahlen von 2016 nahm, beschäftigte sich die breite Öffentlichkeit erstmals mit dem Phänomen. Die Firma hatte erkannt, dass sich Facebooks Algorithmen täuschen, manipulieren lassen: Mit Bots, professionellen Lügnern und geklauten oder gefälschten Profilen konnte sie gewünschte Bilder und Beiträge pushen oder unliebsame mit Troll- und Hasskommentaren fluten.

Das sorgt für verzerrte Realitätswahrnehmungen und erstickt jeden Versuch konstruktiver Diskussion bewusst im Keim. Ein Problem, das durch immer ausgereiftere Bots verstärkt wird. Das gilt längst nicht nur für Facebook, auch Twitter, Instagram und Co. haben mit Hass und Propaganda zu kämpfen. Merkwürdige Ironie: Ausgerechnet künstliche Intelligenz soll nun die Manipulation in sozialen Netzwerken aufdecken.

Ich sehe was, was du nicht siehst

Künstliche Intelligenz kann nicht nur gefälschte Gesichter generieren, sie erkennt auch reale Gesichter mit immer größerer Genauigkeit. Taylor Swift soll entsprechende Software genutzt haben, um aufdringliche Stalker von ihren Konzerten fernzuhalten. Die Erkennung erfolgte offenbar versteckt, ohne dass es die Besucher überhaupt mitbekamen.

Wenn Gesichtserkennung für mehr Sicherheit an öffentlichen Plätzen, in Stadien und auf Konzerten sorgen kann, dann ist das tendenziell zu befürworten. Doch das setzt auch voraus, dass öffentliche Räume mit entsprechenden Kameras bestückt werden – und zwar in allen Ecken. Das dadurch anfallende Datenmaterial würde eine bisher nicht gekannte Kontrolle und Verfolgung von Einzelpersonen ermöglichen und dürfte in den falschen Händen sicher nicht nur für gute Zwecke genutzt werden.

Besonders in China ist die flächendeckende Überwachung im öffentlichen Raum bereits der Normalfall. Zusammen mit dem fragwürdigen Sozialkredit-System hat die Regierung dort schon jetzt eine Realität geschaffen, die einst der Stoff dystopischer Zukunftsromane war.

Das Auto der Zukunft fährt selbst – und baut selbst Unfälle

Klar: Computer machen weniger Fehler als Menschen, viel weniger. Doch sie machen Fehler. Sei es, weil sie mit den falschen Daten gespeist wurden oder weil sie die richtigen Daten falsch interpretieren. Nicht immer produziert der Computer das Ergebnis, das der Mensch erwartet.

Bei selbstfahrenden Autos ist das besonders problematisch – die sind zwar noch lange nicht in der Masse angekommen, aber unaufhaltsam auf dem Vormarsch. Im besten Fall resultiert ein Berechnungsfehler hier in einem harmlosen Zusammenstoß, im schlimmsten Fall sterben Menschen. Obwohl computergelenkte Autos vermutlich langfristig weniger Fehler machen als menschliche Fahrer, wirft das neue Fragen auf: Wer ist verantwortlich, wenn ein selbstfahrendes Auto einen Menschen tötet? Wie gehen wir damit um, wenn die Computersteuerung uns in Gefahren bringt und nicht wir uns selbst? Probleme, die bei aller Euphorie um autonomes Fahren noch kaum geklärt sind.

Algorithmen, die über Leben und Tod entscheiden

Nicht nur herkömmliche Autos und LKWs können dank künstlicher Intelligenz autonome Entscheidungen treffen, auch Kampfdrohnen oder Panzer lassen sich mit der Technik ausstatten. Diese Kombination führt aber in ethisch so unvertretbare Fahrwasser, dass das 'Future of Life Institute' eine Selbstverpflichtung ins Leben gerufen hat, der sich Staaten und führende Forschungsinstitute weltweit angeschlossen haben. Kern der Vereinbarung: Die Entscheidung, ein menschliches Leben zu nehmen, sollte niemals an eine Maschine abgegeben werden.

Dennoch arbeitete etwa Google mit dem US-Militär zusammen und half ihm dabei, Militärdrohnen mit KI-Technologie auszustatten. Man kann also sicher sein, dass künstliche Intelligenz in den Verteidigungsministerien weltweit ein heiß disktutiertes Thema ist. Bleibt nur zu hoffen, dass die Erwägungen dort nicht irgendwann die Früchte tragen, vor denen uns dieser fiktive Report warnen will:

Via MIT Technology Review

Hier erfährst du mehr über: FacebookSicherheitKünstliche Intelligenz und Datenschutz

Sag uns deine Meinung!