Quo vadis, Mensch-Maschine-Interaktion?

Quo vadis, Mensch-Maschine-Interaktion?

Während meiner Zeit als Research Consultant in der User Experience Abteilung von eye square habe ich schon etliche Systeme untersucht, die eine Schnittstelle zwischen Mensch und Maschine dargestellt haben.
Der mit Abstand größte Teil war gekennzeichnet durch eine Interaktion per (Touch-)Bildschirm und Navigation mit Hand/Maus.
Mit immer besseren Sprach-/Gestenerkennungssystemen, Eye Tracking, Virtual/Mixed Reality und cleveren Algorithmen gibt es aber mehr Möglichkeiten auf diese "klassischen" Schnittstellen zu verzichten und die Wünsche des Nutzers möglichst natürlich auszuführen.
Bekannte Beispiele dafür sind z. B. Siri, Google Now oder Microsoft HoloLens. Je besser solche Systeme werden, desto weiter ersetzen sie die bisher üblichen Mensch-Maschine-Interaktionen. Die Konsequenz daraus ist, dass es ganz neue Möglichkeiten, aber auch Herausforderungen gibt.
Das Microsoft Research Team gibt bereits einige Einblicke in potentielle Systeme der Zukunft:

Bei Amazon kann man mit dem ["Echo"](http://amzn.to/2dn8hex) mittlerweile schon einen ständigen "Diener" in die eigenen vier Wände ordern, der zahlreiche natürlich gesprochene Befehle ausschließlich per Zuruf erledigt. Ich finde diese Entwicklung sehr spannend zu beobachten und wünsche mir in der Zukunft wieder weniger "Smartphonezombies" zu sehen. ![](https://upload.wikimedia.org/wikipedia/commons/thumb/1/1c/Flickr_-_Duncan~_-_Mansion_House.jpg/1024px-Flickr_-_Duncan~_-_Mansion_House.jpg) Bei der Arbeit versuche ich auch auf [innovative Systeme so früh wie möglich](http://www.eye-square.de/itx/) einzugehen und freue mich auf die Zukunft. Es sollte allerdings nicht so weit gehen wie im sehr empfehlenswerten Film *Her* ;)

Ähnliche Beiträge