A A A
| Sitemap | Kontakt | Impressum | Datenschutz
ETZ Logo VDE Verlag Logo

HMI 5.0 – Ist Touchbedienung noch State of the Art?

01  Steuergeräte für AR/VR-Brillen ermöglichen eine feinfühlige Bedienung

01  Steuergeräte für AR/VR-Brillen ermöglichen eine feinfühlige Bedienung

HMI 5.0 – wurde da nicht eine Versionsnummer übersprungen? Nicht, wenn man die Innovationen und damit die Zukunft des Human Machine Interface betrachtet. Brauchen wir überhaupt noch Touchscreens? Oder träumen wir uns unsere Geräte mit dem Gedankeninterface zusammen?

02  HMI 5.0 beschreibt die umfassende Interaktion des Menschen mit dem System mithilfe aller Sinne

02  HMI 5.0 beschreibt die umfassende Interaktion des Menschen mit dem System mithilfe aller Sinne

Vor zwölf Jahren machte das iPhone von Apple mit einem neuen Bedienkonzept Furore. Die Tastatur wird durch einen Touchscreen ersetzt, die gesamte Vorderseite des ­Geräts füllt ein riesiger Bildschirm mit einer bislang nicht da gewesenen Pixeldichte. Die Bedienung erfolgt über einen Touchscreen mit projiziert-kapazitivem Feld, der auch ­mehrere Touchereignisse gleichzeitig erkennen und auswerten kann. Sinnvoll einzusetzen ist diese Technologie nur mit einer neuen Art der Benutzerführung über Software. Tippen, Sliden und andere Gesten mit einem oder zwei Fingern steuern unterschiedliche Funktionen.

Seit dieser Produktvorstellung hat sich die Welt der Ein- und Ausgabe gewandelt. Aus der punktuellen Berührung des Touchscreens, die genau eine Aktion auslöste, wurden Gesten mit einem oder mehreren Fingern, die komplexe Aktionen auslösen. „Drag-and-drop“ oder „Pinch“ funktionieren aus dem Handgelenk, ohne umständlich über Menüs ­Objekte auszuwählen und eine Aktion zuzuordnen. Diese Umstellung verlangt eine völlig neue darunter liegende Software und damit ein neues Bedienkonzept.

Müssen Aktionen immer durch Berühren eines dem Bildschirm vorgelagerten Touchscreens initiiert werden? Ist es nicht auch denkbar, Bewegungen vor dem Bildschirm auszuwerten? Ja, gleich mehrere Technologien nutzen diese ­Vorstellung. Für Gesten, die keine besonderen Anforderungen an die Genauigkeit stellen, eignen sich 3D-Touchsysteme, die Positionen durch eine Änderung in einem elek­trischen Feld bestimmen. Für eine qualitative Bestimmung „Lauter/Leiser“, „Höher/Tiefer“ oder „Zoom in/Zoom out“ reicht die Auflösung dieser Systeme.

Alternativen zum Touchscreen

Soll die Position genauer ausgewertet werden, kommen ­Kameras zum Einsatz, die zum Beispiel den Händen des Bedieners folgen. Die Perfektion in Auflösung der Position bieten die Steuergeräte für AR/VR-Brillen (Bild 1), die im System eine feinfühlige Steuerung erlauben.

Einen anderen Ansatz verfolgt das „Eye Tracking“. Nach einer kurzen Lernphase ist das System in der Lage, die ­Pupillen des Bedieners mithilfe von Kameras zu verfolgen. Der „Mausklick“ erfolgt durch Blinzeln. Nach einer Eingewöhnung kann der Bediener ohne den Einsatz der Hände das System bedienen. Anwendungen sind überall dort, wo die Hände gerade nicht frei sind oder steril bleiben müssen.

Ein Trend ist auch die Sprachsteuerung. Apple, Google und Amazon machen es vor: Das Abrufen von Informationen aus dem Internet oder die Steuerung von Geräten im heimischen Wohnzimmer funktioniert ganz einfach auf ­Zuruf. Dahinter steckt eine künstliche Intelligenz, die in einer Serverfarm des Anbieters steckt.

Etwas einfacher ist die Spracheingabe, die mehr oder weniger strikten Syntaxregeln folgt. Diese finden wir im Navigationssystem unseres Pkw: „Bitte geben Sie die Adresse ein in der Form Stadt, Straße und Hausnummer“. Das Parsing, also das Zuordnen der eingegebenen Worte zu Feldern in der Datenbank, kann ein lokaler Controller durchführen und die gewünschte Aktion, sei es die Navigation zur Zieladresse oder das Wechseln des Radiosenders, ausführen.

Displaytechnologien für die Visualisierung

Auf der anderen Seite der Interaktion steht die Ausgabe, die meistens ein Display erledigt. Auch dort schreitet die Technik voran. Wiederum getrieben durch die Stückzahlen des Massenmarktes erscheinen OLED mit brillanter Darstellung und einer durch den hohen Kontrast hervorragenden Bildqualität. In bestimmten Anwendungen scheinen sie der LCD-Technologie den Rang abzulaufen, auch wenn sie prinzipbedingt einem Alterungsprozess unterliegen, der durch Nachlassen der Helligkeit sichtbar wird. TFT kontert mit Quantum Dots, die unter Namen wie QLED in den Markt drängt und einen hohen Farbumfang mit leuchtenden Farbtönen verspricht. Noch im Laborstadium befinden sich Schirme mit Mikro-LED, die der LED-Technologie zu einer Renaissance verhelfen und sie von der reinen Lichtquelle für TFT zur Bildquelle an die Front rücken lässt. Die Fertigung großer Bildschirme mit hoher Auflösung ist fertigungstechnisch für die Serie noch nicht gelöst, Prototypen zeigen jedoch das große Potenzial, das diese Technologie aufweist.

Zurück zum HMI: Der Anwender von heute darf ein durchgängiges Konzept erwarten. Nicht eine Technologie alleine führt zum Erfolg, sondern die Kombination. Bild 2 macht die Beteiligung der Sinne deutlich. Ein Human-­Machine-Interface muss eine schlüssige Eingabefunktion anbieten, die viele Sinnesorgane anspricht. Zu den beschriebenen Touchsystemen kommt die haptische Rückmeldung, die dem Bediener über den Tastsinn auf direktem Wege die erfolgreiche Eingabe signalisiert. Sie könnte auch akustisch über einen Piepser erfolgen, was jedoch in lauter Umgebung unter Umständen im Lärmpegel untergeht. Das Display stellt mit hoher Auflösung die gewünschten Informationen ergonomisch dar. Einen entscheidenen Anteil hat jedoch die Benutzerführung, die die Software vornimmt (GUI; ­Graphical User Interface). Sie legt fest, wie Informationen präsentiert werden, durch Farben, Formen, Anordnung auf dem Bildschirm und Darstellung in Relation zueinander.

HMI 5.0 ist die nächste Revolution

Was bedeutet jetzt HMI 5.0? Der Begriff beschreibt die umfassende Interaktion des Menschen mit dem System mithilfe aller Sinne. Neue Methoden kommen auf den Markt, zum Beispiel für die Eingabe die Erkennung von 3D-­Gesten, die Spracherkennung und das Eye Tracking. Für die Ausgabe steigt die Bedeutung der haptischen Rückmeldung, die das Manko gängiger Touchscreens kompensiert, und die drei­dimensionale Visualisierung mit Hologrammen oder Brillen. Durch leistungsfähigere Grafikkarten sind Brillen für AR und VR bezahlbar geworden. Zunächst getrieben durch Computerspiele, haben VR-Brillen ihre Berechtigung ­bereits im Simulatortraining gefunden, wo sie den Bediener optisch und akustisch in eine realistische Szene versetzen.

Der Kommunikationskanal zwischen Mensch und ­Maschine ist breiter geworden: Sehen und gesehen werden – mit Bildausgabe und Eye Tracking; hören und gehört werden – mit Tonausgabe und Spracheingabe; tasten und fühlen – mit Touchscreen und haptischem Feedback. Nur Riechen und Schmecken fehlen noch in diesem Reigen.

Fazit

Ist Touchbedienung noch State of the Art? Diese Frage kann man ganz klar mit Ja beantworten. Trotz vieler neuer Technologien wird der Touchscreen noch längere Zeit den Ton angeben. Eine wichtige Rolle darüber hinaus wird die umfassende, multisensuelle Kommunikation des Menschen mit dem Computer spielen, die wir HMI 5.0 nennen, und die sich nicht nur auf Tastatur/Touchscreen und Bildschirm ­beschränkt. Auch wenn einigen Technologien noch nicht der Durchbruch in die Breite gelungen ist, stehen sie als Werkzeug bereit, dem Anwender eine neue User Experience zu ermöglichen. Mit ihrer Unterstützung ist er bestens ­präpariert, wenn es um die Implementierung von Software für künstliche Intelligenz oder Machine Learning geht. (mh)


Literatur:
[1] Hy-Line Computer Components Vertriebs GmbH, Unterhaching: https://www.hy-line.de


Rudolf Sosnowsky ist Leiter Technik bei der Hy-Line Computer Components Vertriebs GmbH in Unterhaching.

Autor:
Rudolf Sosnowsky ist Leiter Technik bei der Hy-Line Computer Components Vertriebs GmbH in Unterhaching.