Microsoft arbeitet an iOS-App

GazeSpeak: App gibt ALS-Patienten eine Stimme

Foto von Sebastian Hardt

von Sebastian Hardt (@hardtboiled)-

Forscher entwickeln mit 'GazeSpeak' derzeit eine iOS-App, die Augenbewegungen von ALS-Patienten und anderen gelähmten Menschen mit Hilfe der iPhone-Kamera in Sprache übersetzen soll. Erscheinen soll GazeSpeak schon im Mai dieses Jahres.

Amyotrophe Lateralsklerose oder 'ALS', ein Nervenleiden, das in späten Stadien zur vollständigen Lähmung fast sämtlicher Muskeln führt, ist zuletzt mit der 'Icebucket Challenge' ins Licht der Öffentlichkeit gerückt. Dadurch konnten zwar jede Menge Spendengelder für Forschungszwecke generiert werden, ein Heilmittel für die schlimme Krankheit scheint aber noch immer in weiter Ferne. Bei Microsoft Research hat man sich offenbar vorgenommen, zumindest das Leben mit den Symptomen etwas erträglicher zu gestalten.

ALS Patient nutzt GazeSpeak

Die Kamera verfolgt die Augenbewegung des Nutzers und ordnet sie eine von vier Buchstabengruppen zu.

Quelle:  Enable Team, Microsoft Research 

ALS Patient nutzt GazeSpeak

Die Kamera verfolgt die Augenbewegung des Nutzers und ordnet sie eine von vier Buchstabengruppen zu.  

Quelle:  Enable Team, Microsoft Research 

78 Sekunden für einen Satz

Die spätestens im Mai erscheinende App 'GazeSpeak' für iOS (Zu einer Android-Version gibt es noch keine Informationen) scannt die Augenbewegung des ALS-Patienten, ordnet die Blickrichtung einer von vier Buchstabengruppen zu, formt daraus Worte und gibt diese per Sprachausgabe aus. "We’re using computer vision to recognise the eye gestures, and AI to do the word prediction", erklärt Microsoft-Research-Mitarbeiterin Meredith Morris dem Wissenschaftsmagazin New Scientist das Prinzip hinter der App.

Verwendet wird 'GazeSpeak' dabei durch den Zuhörer: Dieser befestigt dafür einen Aufkleber mit besagten vier Buchstabengruppen auf der Rückseite seines iPhones und richtet die Kamera auf die Person, die er verstehen möchte, damit die Kamera seinen Augenbewegungen folgen kann. Erste Versuche mit 20 Teilnehmern hätten ergeben, dass GazeSpeak im Durchschnitt 78 Sekunden brauchte, um einen stimmigen Satz zu formulieren.

Was die Open-Source-App kosten soll, haben die Entwickler noch nicht verraten. Lediglich dass sie viel günstiger sein soll, als herkömmliche Methoden, stehe fest. Der breiten Öffentlichkeit vorgestellt werden, soll die App auf der Conference on Human Factors in Computing Systems in Colorado im kommenden Mai. Ob, und wenn ja, wann die App für weitere Sprachen angepasst wird, verrieten die Wissenschaftler nicht.

Sag uns deine Meinung!

Um einen Kommentar zu verfassen, melde Dich an oder registriere Dich jetzt auf Netz.de!

Das könnte dich auch interessieren!
Mehr zum Thema...
Werbung
Ab ins Netz mit dir