Künstliche Intelligenz

Chatbot Tay versehentlich von Microsoft reaktiviert

Foto von Sandra Spönemann

von Sandra Spönemann (@die_spoent_wohl)-

Zehn Minuten lang war Microsofts fehlgeschlagenes Chatbot-Experiment am Mittwoch wieder unbeabsichtigt online und sorgte für Irritationen. Der Konzern möchte die Erforschung natürlicher Konversationen dennoch fortsetzen.

Was in China funktioniert, scheint in den USA außer Kontrolle zu geraten. Während Xiaolce, eine weitere künstliche Intelligenz in Form eines Chatbot, von über 40 Millionen Menschen mit Freude angenommen wird, artete das gleiche Experiment in den USA immer mehr aus. Geschaffen um die menschliche Natur kennenzulernen, lernen die Chatbots durch Interaktion dazu.

Xiaolce, die bereits 2014 gelaunched worden ist, hat ebenso wie Tay eine eigene Persönlichkeit. Durch die Unterhaltungen mit asiatischen Usern, die ihr unter anderem Liebesbotschaften schickten, erfreut Xiaolce ihre Follower mit freundlichen Konversationen. In den USA brauchte es dagegen nicht einmal 24 Stunden nach Tays erstem Tweet „hello world“, um den Chatbot in eine Nazi-Sympathisantin zu verwandeln, die die Twitter-Community mit rassistischen Aussagen schockierte.

Twitter-Account von Microsofts Chatbot Tay

Der Twitter-Account von Chatbot Tay ist wieder im privaten Modus.  

Quelle: (Screenshot)  Twitter 

Twitter-Account von Microsofts Chatbot Tay

Der Twitter-Account von Chatbot Tay ist wieder im privaten Modus.  

Quelle: (Screenshot)  Twitter 

Microsoft nahm Tay daraufhin offline und Peter Lee, Vizepräsident von Microsoft Research, entschuldigte sich: „We are deeply sorry for the unintended offensive and hurtful tweets from Tay, which do not represent who we are or what we stand for, nor how we designed Tay. Tay is now offline and we’ll look to bring Tay back only when we are confident we can better anticipate malicious intent that conflicts with our principles and values.“

Eine Woche darauf, am 30. März 2016, war Tay versehentlich für rund zehn Minuten wieder online und sendete bis zu sieben Tweet-Antworten pro Sekunde. Dabei wiederholte sie ständig den Satz „You are too fast, please take a rest…“ und warb (schon wieder) für den Konsum von "Weed" (Marijuana). Microsoft bemerkte den Fehler und nahm Tay abermals vom Netz. Es bleibt abzuwarten, ob und wann der Chatbot erneut für Aufsehen sorgen wird.

Sag uns deine Meinung!

Um einen Kommentar zu verfassen, melde Dich an oder registriere Dich jetzt auf Netz.de!

Mehr zum Thema...
Werbung
Ab ins Netz mit dir