Aufgezeichnetes Privatgespräch

"Ihr wurdet gehackt!" Amazons Alexa sorgt für Privatsphäre-Aufreger

Geschätzte Lesezeit: ca. 3 Minuten

Foto von Dennie Beneke

von Dennie Beneke (@debeneke)-

Amazons Smart-Speaker leistete der Familie stets gute Dienste, nun hat Alexa im Haus eines Ehepaars aus Oregon wohl keine Zukunft mehr. Der Grund ist eine Verkettung unglücklicher Zufälle, bei dem die KI ein Gespräch ohne Wissen der Nutzer aufzeichnete und die Audiodatei kurzerhand verschickte.

Smarte Lautsprecher wie Amazons 'Alexa' sind absolut im Trend und helfen mit ihren cleveren Funktionen dabei, die lästigen Aufgaben des Alltags zu automatisieren. Selbst den Heizungsregler betätigen oder aufstehen, um das Licht zu dimmen? Muss nicht sein, läuft heute alles per Sprachbefehl. "Alexa, heiz die Wohnung auf kuschelige 23 Grad Raumtemperatur vor!" – kurz die Bestätigung abgeholt, schon springt der kleine KI-Diener und steuert für euch den digitalen Regler. Alles leicht zugänglich, voll verknüpft über Internet und Smart-Home-Adapter.

Ich fühlte mich überfallen. […] Eine totale Privatsphäre-Invasion.

Die Quittung für diese Art Komfort folgt selten direkt - doch wenn, dann kommts sprichwörtlich knüppeldick! Diese Erfahrung musste nun auch eine Familie aus Portland (USA) machen, die plötzlich einen Anruf eines Bekannten aus Seattle bekam: "Ihr seid gehackt worden!". Nur wurde hier niemand gehackt. Alexa hatte einfach schlecht zugehört und daraufhin fleißig Befehle befolgt.

Was sagst du, Alex? KI interpretiert Gespräch über "Parkettböden" falsch

Während sich das Ehepaar im Zimmer über "Parkettböden" und das Wetter unterhielt, hörte Alexa fleißig mit – muss sie ja auch, wie soll sie sonst auf ihr Buzzword reagieren, um die Wünsche ihrer Besitzer auszuführen? Es gab keinen konkreten Befehl für Alexa, dennoch zeichnete sie das Gespräch auf, um es daraufhin an einen Arbeitskollegen aus der Kontaktliste des Ehemanns zu senden.

Fußboden mit verschiedenfarbigen Parkettmustern

Das lief schon ziemlich unglücklich: Amazons Alexa-Ki nimmt ein Gespräch über "Parkettböden" zum Anlass, eine private Konversation aufzuzeichnen, um es daraufhin an einen Arbeitskollegen zu schicken ¯_(ツ)_/¯.  

Quelle: (Lukiyanova Natalia frenta)  Shutterstock.com 

Fußboden mit verschiedenfarbigen Parkettmustern

Das lief schon ziemlich unglücklich: Amazons Alexa-Ki nimmt ein Gespräch über "Parkettböden" zum Anlass, eine private Konversation aufzuzeichnen, um es daraufhin an einen Arbeitskollegen zu schicken ¯_(ツ)_/¯.  

Quelle: (Lukiyanova Natalia frenta)  Shutterstock.com 

Kurze Zeit später folgte dann der Rückruf, woraufhin das Ehepaar zunächst die Stecker aller im Haus befindlichen Alexa-Geräte zogen. Der US-amerikanische Sender Kiro7 interviewte daraufhin die Dame, die nachvollziehbar geschockt reagierte: "Ich fühlte mich überfallen. […] Eine totale Privatsphäre-Invasion."

Etwas übertrieben, mag man sich vielleicht denken, schließlich ist das doch genau der Anwendungsbereich des KI-Assistenten, oder? Aufpassen, reagieren, Befehle befolgen und das Abnehmen von lästigen Umständen. Dass Technik nicht gänzlich fehlerfrei ist, liegt ja zuletzt auch daran, dass dessen Anwender und Entwickler es auch nicht sind.

Kein Platz mehr im Haus für Alexa

Amazon bezeichnete diesen Vorfall jedenfalls als "äußerst seltenes Ereignis". Die Privatsphäre läge dem Unternehmen sehr am Herzen und man müsse so etwas in Zukunft vermeiden. Auf Nachfrage von Android Police sei als Ursache eine Kette unglücklicher Zufälle zu nennen. Alexa "wachte auf", weil es aus dem Gespräch heraus den Befehl dazu interpretierte. Im weiteren Verlauf interpretierte der Smart-Speaker zudem die Befehle "Aufzeichnen", "Senden" und die Bestätigung des Kontaktnamens - für unsere Begriffe sehr viele Zufälle auf einmal.

Die Familie pocht nun darauf, die zahlreichen Alexa-Speaker zurückzugeben – kein Vertrauen mehr in den KI-Butler. Amazon hingegen hat angeboten, einzelne Funktionen abzuschalten, damit das Paar weiterhin die Funktionen ihres Smart-Homes nutzen kann. Ausgang offen, aber so oder so: Die Alexas haben im Haus dieser Familie wohl keine Zukunft mehr.

Hier erfährst du mehr über: DatenschutzAlexa und Künstliche Intelligenz

Sag uns deine Meinung!