Digitale Assistenzsysteme sind längst in mobilen Arbeitsmaschinen angekommen – die Steuerung dazu ist meist jedoch auf klassische Displays beschränkt. Extended Reality (XR) eröffnet hier neue Möglichkeiten: Digitale Informationen können direkt in den Arbeitskontext integriert und an die Routinen der Bedienenden angepasst werden. So lassen sich etwa Umgebungsdaten, Projektionen oder digitale Zwillinge nutzen, um komplexe Aufgaben intuitiver zu unterstützen.
Die zentrale Herausforderung liegt darin, dass nicht alle Informationen gleichzeitig sichtbar und relevant sind. Statt auf maximale Augmentierung zu setzen, ist ein flexibles XR-Kontinuum sinnvoll, das den Wechsel zwischen realer und virtueller Umgebung ermöglicht. Dadurch können Daten situativ eingeblendet und an unterschiedliche Arbeitsszenarien angepasst werden.
Besonders wichtig ist dabei die Gestaltung der Interaktion. Da die volle Aufmerksamkeit in der Kabine auf die Maschinensteuerung gerichtet sein muss, eignen sich periphere Interaktionsformen – also Eingaben, die bewusst, aber mit geringer Ablenkung erfolgen. Gestensteuerung zeigt hier großes Potenzial: Sie entlastet visuell und lässt sich intuitiv in Arbeitsabläufe einbinden.
Im Rahmen seiner Diplomarbeit hat Chi-Hsiang Kao eine gestenbasierte Steuerung für Assistenzfunktionen entwickelt und prototypisch umgesetzt. Dabei standen ergonomische Gesten, ein klarer Interaktionsbereich und ein effektives Feedbacksystem im Fokus. Erste Tests zeigen: Mid-Air-Gesten bieten eine vielversprechende Möglichkeit, komplexe Assistenzsysteme benutzerfreundlich in die Fahrerkabine zu integrieren – und damit den Weg für die nächste Generation digitaler Bedienkonzepte zu ebnen.
What do you think?