Freitag

Forscher ermöglichen Smartphonesteuerung mit dem Gesicht

IT-News

Wenn man gewöhnliche Handschuhe trägt, lässt sich das Smartphone nicht bedienen, zumindest nicht per Touchscreen. Da wäre es hilfreich, wenn man nur eine bestimmte Grimasse schneiden würde, die vom Gerät via Bilderkennung als „Gespräch annehmen und auf Lautsprecher schalten“ interpretiert wird. Die Umwelt würde das Gesichterschneiden befremden. Und dem Handybesitzer wäre es eher peinlich.

Signale kommen aus dem Ohr

Fraunhofer-Forscher haben deshalb einen anderen Weg gewählt, um ein Smartphone mit Gesten zu steuern. Sie messen die elektrischen Ströme und die Verformung des Ohrs mit Sensoren im Ohr. Die verändern sich, wenn man sein Gesicht nur ein bisschen verzieht, etwa versucht, mit den Ohren zu wackeln. Damit könnte man das -Smartphone steuern, ohne Passanten sonderlich aufzufallen oder sie sogar zu erschrecken. Der Sensor registriert bereits kleinste Bewegungen im Gesicht durch die Art, wie sich die Form des Ohrkanals verändert, und misst Muskelströme, die bei der Bewegung des Gesichts oder des Kopfes entstehen. Die Forscher am Fraunhofer-Institut für Graphische Datenverarbeitung (IGD) am Standort Rostock nennen ihr System EarFS.

System erkennt auch müde Autofahrer

„Die Herausforderung war, dass diese Ströme und Bewegungen mitunter sehr klein sind und verstärkt werden müssen“, sagt Denys Matthies, Wissenschaftler am IDG. „Außerdem dürfen die Sensoren sich nicht von anderen Bewegungen des Körpers, zum Beispiel durch Erschütterungen beim Gehen stören lassen.“ EarFS ermöglicht nicht nur Mikrointeraktionen mit dem Smartphone wie etwa das Annehmen und Ablehnen von Telefonanrufen oder die Steuerung des Music-Players. Es kann auch die Sicherheit beim Autofahren erhöhen. Wer müde ist verzieht sein Gesicht. Die Augenlider schließen sich in schnellerem Rhythmus oder Fahrer beginnt gar zu gähnen. Der Stöpsel im Ohr kann auch diese Symptome deuten und via Smartphone vor einer Weiterfahrt ohne Pause warnen.

Neue Chance für Gelähmte

Wenn die Sensoren aus den Gesichtszügen – indirekt – ablesen, dass der Besitzer des Smartphones konzentriert arbeitet, kann es sich auf „lautlos“ stellen, um den Gedankenfluss nicht zu unterbrechen. Menschen, die vom Nackenwirbelbereich an gelähmt sind, könnten mit den Sensorstöpsel wieder an der Kommunikation teilnehmen, indem sie ihr Handy per Gesicht steuern. Das System ließe sich auch nutzen, um einen Computer zu bedienen. Ohne Gesichtstraining geht allerdings gar nichts.

Keine Kommentare:

Kommentar veröffentlichen