Multi-modale Interaktionsm?glichkeiten bieten ein hohes Ma? an Zug?nglichkeit, Neuartigkeit und Nutzerfreundlichkeit bei intelligenten Küchenger?ten.
Im Rahmen des UX-Design Masterprojekts Natural User Interfaces im Sommer 2021 pr?sentieren wir das Design und die prototypische Implementierung einer solchen multi-modalen Interaktion:
Geleitetes Kochen mit einer intelligenten Küchenmaschine, die neben Touch-Gesten auch Nutzereingaben in Form von Sprache akzeptiert und über eine Sprachausgabe verfügt. So steht der Bedienung einer smarten Küchenmaschine nichts mehr im Weg, selbst wenn die H?nde verschmutzt oder gerade nicht frei sind.
Im Rahmen des Projekts ist ein Paper entstanden, das auf der ICNLSP 2021 akzeptiert wurde: https://aclanthology.org/2021.icnlsp-1.30
Der Code zum Prototyp ist auf GitHub unter folgendem Link verfügbar: https://github.com/VoiceCookingAssistant/Audio-Visual-Cooking-Assistant