MIT benötigt Mithilfe von Nutzern

Nie mehr Taps und Swipes? Forscher entwickeln Augen-Steuerung für Smartphones

Foto von Sebastian Hardt

von Sebastian Hardt (@hardtboiled)-

Smartphone-Steuerung nur mit Augenbewegungen: Ein internationales Forscher-Team arbeitet derzeit mit Hochdruck an einer solchen Technologie, die sich nicht nur für Spiele-Apps eignet, sondern sich auch in medizinischen Anwendungsbereichen nützlich machen kann. Dabei sind die Forscher auf die Mithilfe von Freiwilligen angewiesen.

Werden sich Smartphones und Tablets bald vollständig durch Augenbewegungen steuern lassen? Ein Team internationaler Forscher, darunter Wissenschaftler vom Massachusetts Institute of Technology (MIT) und dem deutschen Max-Planck-Institut für Informatik arbeiten derzeit an einer Technologie, die genau das ermöglichen soll. Wie MIT Technology Review kürzlich berichtete, wären mögliche Einsatzgebiete neben Gaming-Apps auch medizinische Anwendungen, die beispielsweise bei der Diagnose von Schizophrenie und Gehirnerschütterungen helfen sollen.

Fehlerquote derzeit noch zu hoch

Gut zu wissen

Mit der App GazeCapture für iOS kann jeder den Forschern bei der Datensammlung für ihr innovatives Projekt helfen!

Im jetzigen Stadium sei die Blicksteuerung allerdings noch nicht akkurat genug, heißt es in der Meldung weiter. Derzeit erkenne die Technik, die über die Frontkamera des Geräts die Augen des Nutzers scannt, die Blickrichtung erst mit einer Abweichung von etwa einem Zentimeter auf dem Smartphone und 1,7 Zentimetern auf dem Tablet.

Gerade auf dem Smartphone ist dieser Wert noch weit von einer akzeptablen Fehlertoleranz entfernt. Aditya Khosla, Student am MIT und am Forschungsprojekt beteiligt, geht aber fest davon aus, dass die Genauigkeit der "iTracker" getauften Technologie zunimmt, je mehr Daten gesammelt werden sammeln können.

iTracker: Bei der Entwicklung kann jeder mithelfen

Wer es nicht mehr abwarten kann und das mobile Interface schon bald so bedienen möchte, wie Tony Stark seinen eisernen Anzug, der kann den Forschern in dieser Hinsicht aktiv behilflich sein: Über die kostenlose App GazeCapture für iOS können Nutzer ihre Augenbewegungen aufzeichnen lassen, während sie pulsierende Punkte auf dem Bildschirm mit ihren Blicken verfolgen.

Die so ermittelten Daten werden dann genutzt, um die Präzision der iTracker-Technologie Schritt für Schritt zu verbessern. Khosla berichtet, bisher hätten 1.500 Personen GazeCapture benutzt. Insgesamt seien aber Daten von 10.000 Probanden nötig, um die Fehlerquote von iTracker auf weniger als einen halben Zentimeter zu reduzieren.

Sag uns deine Meinung!

Um einen Kommentar zu verfassen, melde Dich an oder registriere Dich jetzt auf Netz.de!

Das könnte dich auch interessieren!
Werbung
Ab ins Netz mit dir