Abbild Steuergeräte für AR/VR-Brillen

Bild 1: Steuergeräte für AR/VR-Brillen ermöglichen eine feinfühlige Bedienung

Vor zwölf Jahren machte das iPhone von Apple mit einem neuen Bedienkonzept Furore. Die Tastatur wird durch einen Touchscreen ersetzt, die gesamte Vorderseite des ­Geräts füllt ein riesiger Bildschirm mit einer bislang nicht da gewesenen Pixeldichte. Die Bedienung erfolgt über einen Touchscreen mit projiziert-kapazitivem Feld, der auch ­mehrere Touchereignisse gleichzeitig erkennen und auswerten kann. Sinnvoll einzusetzen ist diese Technologie nur mit einer neuen Art der Benutzerführung über Software. Tippen, Sliden und andere Gesten mit einem oder zwei Fingern steuern unterschiedliche Funktionen.

Seit dieser Produktvorstellung hat sich die Welt der Ein- und Ausgabe gewandelt. Aus der punktuellen Berührung des Touchscreens, die genau eine Aktion auslöste, wurden Gesten mit einem oder mehreren Fingern, die komplexe Aktionen auslösen. „Drag-and-drop“ oder „Pinch“ funktionieren aus dem Handgelenk, ohne umständlich über Menüs ­Objekte auszuwählen und eine Aktion zuzuordnen. Diese Umstellung verlangt eine völlig neue darunter liegende Software und damit ein neues Bedienkonzept.

Müssen Aktionen immer durch Berühren eines dem Bildschirm vorgelagerten Touchscreens initiiert werden? Ist es nicht auch denkbar, Bewegungen vor dem Bildschirm auszuwerten? Ja, gleich mehrere Technologien nutzen diese ­Vorstellung. Für Gesten, die keine besonderen Anforderungen an die Genauigkeit stellen, eignen sich 3D-Touchsysteme, die Positionen durch eine Änderung in einem elek­trischen Feld bestimmen. Für eine qualitative Bestimmung „Lauter/Leiser“, „Höher/Tiefer“ oder „Zoom in/Zoom out“ reicht die Auflösung dieser Systeme.

Alternativen zum Touchscreen

Soll die Position genauer ausgewertet werden, kommen ­Kameras zum Einsatz, die zum Beispiel den Händen des Bedieners folgen. Die Perfektion in Auflösung der Position bieten die Steuergeräte für AR/VR-Brillen (Bild 1), die im System eine feinfühlige Steuerung erlauben.

Einen anderen Ansatz verfolgt das „Eye Tracking“. Nach einer kurzen Lernphase ist das System in der Lage, die ­Pupillen des Bedieners mithilfe von Kameras zu verfolgen. Der „Mausklick“ erfolgt durch Blinzeln. Nach einer Eingewöhnung kann der Bediener ohne den Einsatz der Hände das System bedienen. Anwendungen sind überall dort, wo die Hände gerade nicht frei sind oder steril bleiben müssen.

Ein Trend ist auch die Sprachsteuerung. Apple, Google und Amazon machen es vor: Das Abrufen von Informationen aus dem Internet oder die Steuerung von Geräten im heimischen Wohnzimmer funktioniert ganz einfach auf ­Zuruf. Dahinter steckt eine künstliche Intelligenz, die in einer Serverfarm des Anbieters steckt.

Etwas einfacher ist die Spracheingabe, die mehr oder weniger strikten Syntaxregeln folgt. Diese finden wir im Navigationssystem unseres Pkw: „Bitte geben Sie die Adresse ein in der Form Stadt, Straße und Hausnummer“. Das Parsing, also das Zuordnen der eingegebenen Worte zu Feldern in der Datenbank, kann ein lokaler Controller durchführen und die gewünschte Aktion, sei es die Navigation zur Zieladresse oder das Wechseln des Radiosenders, ausführen.

1 / 2

Ähnliche Beiträge