Dem Gesicht beim Denken zuhören

Nicht direkt Ag-Tech aber spannend: Wissenschaftler haben ein System zur Spracherkennung entwickelt, das die Sprache von der Gesichtshaut abliest.

Bei MIT (Massachusetts Institute of Technology) haben Wissenschaftler ein System entwickeln, das mit Sensoren an der Gesichtshaut erkennt, was ein Mensch sagt bzw. sagen will. Voraussetzung ist nämlich, dass die Person den Text innerlich spricht, eine inneren Monolog hält. Der Prototyp ist derzeit ein Wearable, das sich ähnlich wie ein Kopfhörer auf- und absetzen lässt (also keine aufgeklebten Sensoren oder ähnlich komplizierte Dinge).

Dann registriert das kleine Gerät mit sieben Sensoren die elektrischen Signale der Gesichtsmuskeln und erkennt daraus dem Wörter.  Bei durchschnittlich 92% Genauigkeit liegt das System derzeit.
Über eine eingebaute Bluetooth-Schnittstelle lassen sich zudem auch Computerbefehle ausführen wie etwa der Eintrag in den Terminkalender.

Wofür lässt sich das einsetzen?

Zum einen immer dann, wenn etwas vertraulich oder geheim ist und bleiben soll. Sie müssten es nicht laut diktieren, sondern es bliebe zwischen Ihnen und dem Computer (ob das dann „vertraulich“ ist, ist eine andere Frage).

Zum lässt sich das System in lauten Umgebungen einsetzen. Wenn es beispielsweise im Traktor zu laut ist, um eine Spracherkennung zu nutzen, dann wäre dieses System die Lösung.

https://www.media.mit.edu/projects/alterego/overview/

Meine Meinung

Klar, das Ganze ist ein Prototyp, aber es gibt immerhin schon einen Prototyp. Verknüpft mit den immer besser werdenden Sprachassistenten wie Amazon Alexa, Google Assistant oder Siri und baut ihn in ohnehin vorhandene Wearables ein, könnte das eine interessante Funktion werden.