Das GazeTheWeb Projekt integriert multimodales Surfen mit Blick- und Sprachsteuerung

Die menschliche Stimme und die Augen sind natürliche Signalquellen, die für eine freihändige Interaktion zwischen Mensch und Computer eingesetzt werden können.

Allerdings ist die Anwendbarkeit abhängig von den Faktoren der Nutzerpräferenz, des Kontextes, der Genauigkeit und der Leistung der einzelnen Modalitäten. In unserer Forschungsarbeit wollen wir diese Faktoren für eine effektive Freihand-Erfahrung ausgleichen: Die Integration der beiden Modalitäten für ein umfassendes Erlebnis im Web. Wir werden den Prototyp des Frameworks auf dem "ACM Symposium on Eye Tracking Research & Applications" (ETRA) in Warschau im Juni 2018 vorstellen. Weiterhin is eine Video-Demonstration des entwickelten Frameworks bereits online verfügbar. Die Arbeit ist ein integraler Bestandteil der Projekte GazeTheWeb und MAMEM, um Menschen zu unterstützen, die unter dem Verlust ihrer Muskelkontrolle leiden.


Datum der Meldung 11.06.2018 07:20
abgelegt unter: