Invisible Interaction

Sprach-basierte Assistenzsysteme haben sich bereits weitestgehend als Interaktionsmodalität in Smart Spaces etabliert. Jedoch zeigt sich immer wieder, dass diese Systeme nicht Datenschutzkonform sind. Dies liegt meist an der Cloudbasierten Auswertung der Sprachdaten, wodurch Sprachdaten gesammelt und u.a. für die Verbesserung der Spracherkennung analysiert werden. Dies ist jedoch datenschutzrechtlich höchst bedenklich. Zudem erfordern diese Cloudbasierten Sprachassistenten stets eine Internetverbindung.

Um die Privatsphäre und die allgemeine Nutzerakzeptanz zu wahren, sind neuartige Interaktionsformen und –modalitäten zu entwickeln. Eine vielversprechende Modalität stellt die Gesteninteraktion dar. Insbesondere die Verwendung von Mirkofingergesten, welche einfach und unscheinbar ausführbar sind, stellen eine vielversprechende Interaktion dar. Wir forschen an Interaktionsgeräten und Methoden, die die Erkennung dieser Mikrofingergesten erlauben. Zudem werden hierbei Algorithmen entwickelt, welche die Gestenerkennung auf dem Interaktionsgerät selbst oder auf einem mobilen Computer, wie dem Smartphone, ausgewertet werden, entwickelt. Damit stellt dies eine Datenschutzkonforme Interaktion dar. Diese neuartige Gestenbasierte Interaktionsform bezeichnen wir unsichtbare Interaktion (engl. invisible interaction).

Aktuelle Projekte in denen wir uns mit Fragestellungen zur unsichtbaren Interaktion befassen sind das DFG eRing Projekt und das vom BMBF geförderte UbiAct Projekt.