App-Tipp: “Look to Speak” übersetzt Augenbewegungen in Sprache.

App-Tipp des Tages powered by VYTAL, dem digitalen Mehrwegsystem für Take-Away & Delivery

Smartphones und Apps sind ja vieles, doch eines meist nicht: barrierefrei. Deshalb hat ein kleines Google-Team sich mit der Frage beschäftigt, wie Menschen mit körperlichen Einschränkungen ihr Smartphone in Zukunft steuern könnten. Herausgekommen ist die App Look to Speak, die Nutzer*innen mit ihren Augen statt mit Händen oder Sprache bedienen. Die Android-App ist ein Experiment und soll bestehende Technologien ergänzen.

Nutzer*innen können mittels Eye-Tracking mit den Augen vorgefertigte Textbausteine auswählen, die dann in Sprachbefehle oder vollständige Texte übersetzt werden. Die App besteht im Wesentlichen aus einer Tabelle mit zwei Spalten. Per Augenbewegung nach links oder rechts können Nutzer*innen aus vorgeschlagenen Textbausteinen auswählen. Die angezeigten Dialogoptionen werden nach und nach auf den Fortschritt des Satzes angepasst und automatisch ausgefiltert. Die Textbausteine können manuell (dann wohl mit Hilfe einer Person ohne Einschränkungen) frei angepasst werden.

Die App lässt sich per Blickmuster auch in eine Art Ruhezustand versetzen. Google will mit Look to Speak erproben, wie insbesondere Menschen mit Sprach- oder Bewegungsbehinderung in Zukunft kommunizieren können. Aber auch für Menschen ohne Einschränkungen dürfte diese neue Art der Navigation nützlich sein.  Caschys Blog kommt jedenfalls zu dem Fazit, dass die App ziemlich intuitiv und die Augensteuerung überraschend einfach und schnell erlernbar ist.

Über unseren Sponsor: 

VYTAL hilft mit seiner App und integrierten Bestelllösung Gastronomen und Konsumenten Verpackungskosten und -müll bei Take-Away & Delivery Food zu vermeiden.

Diesen Artikel teilen

Eine Antwort zu “App-Tipp: “Look to Speak” übersetzt Augenbewegungen in Sprache.”

Mobilbranche.de Newsletter

Hiermit akzeptiere ich die Datenschutzbestimmungen.