Chance oder Alptraum?

Mit iOS Update 12 lässt sich euer iPhone mit den Augen steuern

Geschätzte Lesezeit: ca. 2 Minuten

Foto von Benjamin Krämer

von Benjamin Krämer -

Ja, richtig gelesen. Das neue iOS Update mit der Nummer 12 befindet sich aktuell in der Entwickler-Beta und beinhaltet unter anderem das ARKit 2.0, Apples neuestes Augmented Reality Tool. Darüber lassen sich dank ‚Eye Tracking‘ Apps allein mit den Augen steuern – einfach ansehen zum Auswählen und blinzeln zum Öffnen. Was zur Chance für Menschen mit Behinderungen werden könnte, weckt auch Sorgen.

Es ist erstaunlich, wie schnell einzelne Entwickler aus Betas neuer Software, wie jetzt dem kommenden Update 12 für iOS, neue Dinge herausholen. In diesem Fall ist es der Student Matt Moss, der in den Neuerungen las, dass das ARKit 2.0 Eye Tracking unterstützt und der ausprobieren wollte, wie präzise die Kamera Augenbewegungsmuster nachverfolgen kann. Nach seinem Test lässt sich sagen: sehr präzise. Moss schaffte es, sein iPhone ausschließlich mit seinen Augen zu benutzen. In einem Video (siehe unten), das er auf Twitter teilte, sieht man, wie er eine eigene Test-App mit seinen Augen öffnet, dann blinzelt, um Buttons und schließlich Fotos auszuwählen.

Die Möglichkeit, dass sich Smartphones zukünftig mit den Augen steuern lassen, dürfte vielen Menschen mit Behinderungen Hoffnung machen, auch ohne gesunde Hände neue Technologien nutzen zu können. Menschen, die aktuell vom Markt ausgeschlossen sind, könnten bald einen Zugang dazu verschafft bekommen und sich über ihre Teilnahme am digitalen Leben freuen. Doch natürlich ziehen bereits drohende Schatten auf.

Eye Tracking: Wird der Privatsphäre-Alptraum Wirklichkeit?

Moderne Eye Tracking Systeme stehen schon länger im Verdacht, unsere Augenbewegungsmuster für Werbezwecke zu missbrauchen.

Schon seit längerem wird darüber spekuliert, was die Fortschritte im Eye Tracking uns zukünftig bescheren könnten. Es wird darüber spekuliert, dass Amazon über einige Kindle-Geräte das Leseverhalten seiner Nutzer ausspioniert, um seine Produkte zu verbessern und zu sehen, welche Werbung besser funktioniert als andere. Mark Zuckerberg sorgte 2016 für Schlagzeilen, als man auf einem seiner Foto-Posts sehen konnte, dass er die Kamera seines Laptops zugeklebt hatte – die folgende Aufregung auf Twitter zeigte bloß, dass viele Menschen noch nicht paranoid genug sind.

Wenn Zuckerberg, der weiß wie wenig Privatsphäre es (auch dank ihm) noch gibt, seine Kamera abklebt, sollten wir vielleicht auch darüber nachdenken. Zumindest hinterlässt das Wissen, dass mein iPhone potentiell genau erkennen kann, was ich wann und wie lange ansehe, kein besonders gutes Gefühl. Selbst wenn Apple in Zukunft beteuern sollte, diese Technologie nicht dafür zu nutzen, darf man sich in unserem Zeitalter schwindender Privatsphäre wenigstens Sorgen machen.

Wie Entwickler Matt Moss die Augensteuerung vorführt, seht ihr hier.

Quellen: Mashable.com, Twitter

Hier erfährst du mehr über: iOS und Augmented Reality

Sag uns deine Meinung!