A A A
| Sitemap | Kontakt | Impressum | Datenschutz
ETZ Logo VDE Verlag Logo

Wie sag ich’s meinem Roboter?

01 Aufbau des Spielszenariums

01 Aufbau des Spielszenariums

02 Aufbau der Montageanwendung

02 Aufbau der Montageanwendung

Bei der Mensch-Roboter-Kollaboration (MRK) gibt es keinen Zaun mehr, sodass Mensch und Roboter miteinander kommunizieren müssen. Da die Sprachkommunikation in der Produktion eine hohe Dialogsicherheit erfordert, ist dort formalisierte Sprache einzuführen. Für den Einsatz solcher formalisierter Dialoge werden zwei Anwendungen vorgestellt.

Aus Sicherheitsgründen konnten Industrieroboter lange Zeit nur hinter einem Zaun produzieren. Seit der Veröffentlichung der Norm DIN ISO 10218 gibt es Regularien, die eine Produktion mit Industrierobotern ohne trennende Schutzeinrichtung erlauben. Die darin beschriebenen und in DIN ISO/TS 15066 näher ausgeführten Sicherheitsregeln sind anspruchsvoll. Da Mensch und Roboter bei MRK-Anwendungen ohne Zaun aktiv zusammenarbeiten, ergibt sich neuer Forschungs- und Entwicklungsbedarf, beispielsweise in Bezug auf die Kommunikation. Schließlich müssen sich Mensch und Roboter verständigen, wenn sie Hand in Hand arbeiten sollen.
Für den Einsatz von Industrierobotern ohne Zaun sind im Wesentlichen vier Aspekte zu klären:

  • Form der Zusammenarbeit – Häufig gibt es getrennte Arbeitsräume von Mensch und Roboter, jedoch keinen Zaun. Dann spricht man von Koexistenz [1]. Kommunikation ist dann noch nicht wesentlich. Spannender wird es, wenn es einen gemeinsamen Arbeitsraum gibt, der entweder nicht gleichzeitig benutzt wird oder in dem eine gemeinsame Montage besteht.
  • Sicherheit – Oberstes Gebot bei der Mensch-Roboter-Kooperation ist die Sicherheit des Menschen. Dafür müssen die in den Normen vorgegebenen Sicherheitsregeln geeignet angewendet werden [2].
  • Intuitive Bedienung und Programmierung – Für die Bedienung und das Anpassen von Programmen in der Produktion sind die Prozessspezialisten zuständig, die oft nur geringe Programmierkenntnisse besitzen. Deshalb sollte das System möglichst einfach zu handhaben sein [3, 4].
  • Kommunikation – Wie die menschliche Kommunikation kann sie über verschiedene Kanäle erfolgen, zum Beispiel Gesten, Berühren oder Sprache.

Konzept der Sprachkommunikation
Grundsätzlich kann Sprachkommunikation in verschiedenen Komplexitätsgraden ablaufen. Da sich stark formalisierte Dialoge auf wenige Kommunikationselemente beschränken, ist hier in der Regel kein freies Formulieren möglich. Teilformalisierte Dialoge, zum Beispiel für Auskunftssysteme, haben hingegen einen eingeschränkten Diskursbereich, innerhalb dessen aber freie Formulierungen möglich sind. Freie Gespräche sind dann die offenste Art der Sprachkommunikation. Um solche freien Gespräche zu führen, wie mit Alexa von Amazon, ist aber eine gewisse Menge von Wissen und Wissensmanagement bei beiden Gesprächspartnern notwendig.
Für den Einsatz in der Produktion ist eine hohe Prozesssicherheit erforderlich. Dazu gehören einerseits eine sehr hohe Erkennungsrate sowie andererseits einfache und unverwechselbare Kommunikationselemente. Deshalb bietet sich hier eine formalisierte Sprache. Dabei kommt es auf die Auswahl der Befehle und/oder Befehlssequenzen an, da verschiedene Benutzer die gleiche Situation unterschiedlich beschreiben [5].
Ausgehend von Standardsystemen zur Spracherkennung und Sprachsynthese zeigen die beiden folgenden Anwendungen, wie sich mittels formalisierter Befehle und Befehlssequenzen sichere Dialoge zwischen Mensch und Roboter realisieren lassen. Die erste Anwendung zeigt eine Realisierung bei einer Spielanwendung [6]. Bei dem zweiten Beispiel handelt es sich um einen realen Montageprozess [7].
Sprachkommunikation im Spielszenarium
Das Ziel bei dieser Anwendung besteht darin, gemeinsam mit einem Roboter „LBR iiwa 7 R800“ von Kuka das Rätsel „Türme von Hanoi“ mit drei Scheiben zu lösen (Bild 1). Dabei übernimmt der Mensch die kognitive Arbeit und gibt dem Roboter Anweisungen, der anschließend die Befehle umsetzt. Die Kommunikation wird über eine C#-Applikation und der Microsoft-Speech-Plattform umgesetzt. Der Steuerrechner empfängt die Befehle des Spielers, interpretiert diese und sendet bei einer gültigen Eingabe die Anweisung weiter an den Roboter. Die Applikation reagiert dabei auf bestimmte Schlüsselwörter, die im Vorfeld in einer Grammatik implementiert wurden. So setzt sich beispielsweise ein Umschichtbefehl aus der jeweiligen Farbe der Scheibe und der Nummer des Zielstapels zusammen. In der zugrunde liegenden Grammatik sind noch weitere Wildcards (Platzhalter) eingefügt. So ist es möglich „Roboter, setze die Scheibe rot auf Stange drei“ als Anweisung zu sprechen. Solange die Schlüsselwörter in der richtigen Reihenfolge im Befehl enthalten sind, wird die Eingabe als Anweisung erkannt. Anschließend erfolgt eine Rückmeldung der Applikation an den Spieler.
Der potenzielle Befehl wird über einen Speech-Synthesizer wiederholt. Erst nach einer erneuten Bestätigung durch den Spieler wird der Befehl als gültig eingestuft und – wenn der Zug regelkonform ist – an den Roboter weitergeleitet. Anderenfalls erfolgt eine Erklärung, weshalb der Zug nicht möglich ist. Dieses Feedback ist ein essenzielles Element, da sich der Spieler sonst nicht sicher sein kann, ob der Roboter den Befehl aufgenommen und richtig interpretiert hat. Auch bei einer natürlichen Kommunikation zwischen zwei Menschen ist das Feedback ein zentraler Punkt.
Sprachkommunikation bei der Montageanwendung
In diesem Beispiel soll zusammen mit einem Roboter ein Versenkregner montiert werden (Bild 2). Im Gegensatz zu dem ersten Beispiel übernehmen sowohl der Roboter als auch der Mensch Teilschritte des Montageprozesses. Die Umsetzung erfolgt wieder mit dem Roboter „LBR iiwa 7 R800“ von Kuka sowie Microsoft Speech.
Das Grundprinzip der Sprachsteuerung ist bei beiden Anwendungen dasselbe, jedoch bestehen die Befehle bei der Montage lediglich aus einem Schlüsselwort, da in diesem Fall immer dieselbe Schrittabfolge notwendig ist, um die Baugruppe fertigzustellen. Daher ist der nächste Zug durch ein einziges Wort – und zwar dem Namen des nächsten Bauteils – eindeutig definiert. Diese Ein-Wort-Anweisungen sparen Zeit. Außerdem wurde auf eine Wiederholung der verstandenen Befehle verzichtet. Um trotzdem die richtige Reihenfolge der Montage zu gewährleisten, erfolgte die Implementierung einer Fallunterscheidung.
Um die Akzeptanz und Funktionalität der Sprachsteuerung zu überprüfen, wurden mehrere Testpersonen gebeten die Montage durchzuführen. In einer abschließenden Auswertung berichteten 80 % der Teilnehmer von einem „guten Gefühl“ während der Arbeit mit dem Roboter, obwohl ein Großteil der Probanden keinen routinierten Umgang mit Robotern kennt. Das ist ein Indiz für die Akzeptanz des Roboters als Helfer. Durch die Sprachsteuerung bei der Montage ergeben sich jedoch noch weitere Vorteile. So resultiert eine unmittelbare Eingabe über Sprachbefehle – ohne physischen oder visuellen Kontakt – in eine Zeitersparnis sowie in eine geringere Belastung des Werkers.
Ausblick
Die beiden Anwendungen belegen, dass der Einsatz einer Sprachsteuerung bei MRK-Szenarien den Werker entlastet und die Akzeptanz der Roboter steigert. Ein großer Vorteil der Spracheingabe ist, dass beide Hände frei bleiben und die Tätigkeit nicht zum Bedienen des Roboters unterbrochen werden muss. Für den routinierten Einsatz bei MRK-Anwendungen muss jedoch sichergestellt werden, dass Eingaben – auch bei schwierigen Umgebungsbedingungen – fehlerfrei erkannt werden. Durch die Implementierung von Techniken wie „Noise Cancelling“ oder mithilfe von künstlichem Lernen lässt sich die Erkennungsrate weiter erhöhen. Das Sprechen mit Maschinen wird immer mehr in unseren Alltag integriert und auch gesellschaftlich akzeptiert, wie die Entwicklung von Alexa, Google Assistant und Co. zeigen. Eine Ausweitung dieser Form der Kommunikation auf den Arbeitsplatz ist also durchaus denkbar. (no)

Literatur
[1] Bauer, W.; Bender, M.; Braun, M.; Rally, P.; Scholtz, O.: Leichtbauroboter in der manuellen Montage – einfach anfangen. Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO, 2016
[2] Björn, M.; Reisinger, T.: Example Application of ISO/TS 15066 to a Collaborative Assembly Scenario. International Symposium on Robotics – ISR 2016. München: VDE VERLAG 2016, S. 88 – 92
[3] Müller, N.; Wagner, M.; Heß, P.: Intuitive Programmierung für Mensch-Roboter-Programmierung. ZWF 112 (2017) H. 7-8, S. 477 – 480
[4] Wagner, M.; Heß, P.; Reitelshöfer, S.; Franke, J.: Cooperative Processing with Multi-Robot Systems. IEEE International Conference on Advanced Intelligent Mechatronics, AIM 2017, München. IEEE 2017, S. 663 – 669
[5] Koayashi, Y.; Matsumoto, T.; Takano, W.; Wollherr, D.; Gabler, V.: Motion Recognition by Natural Language Including Success and Failure of Tasks for Co-Working Robot with Human. IEEE International Conference on Advanced Intelligent Mechatronics, AIM 2017, München. IEEE 2017, S. 10 – 15
[6] Huber, K.: Spracheingabe bei der Anwendung für Mensch-Roboter-Kollaboration. Bachelorarbeit, TH Nürnberg, 2017
[7] Geyer, T.: Entwicklung einer Beispielanwendung zur Mensch-Roboter-Kollaboration. Bachelorarbeit, TH Nürnberg, 2017

Prof. Dr.-Ing. Peter Heß lehrt Produktionsautomatisierung, Angewandte Informatik und Robotik an der TH Nürnberg. peter.hess@th-nuernberg.de

Prof. Dr.-Ing. Peter Heß lehrt Produktionsautomatisierung, Angewandte Informatik und Robotik an der TH Nürnberg. peter.hess@th-nuernberg.de

M. Sc. Christian Deuerlein ist Wissenschaftlicher Mitarbeiter am Institut für Chemie-, Material und Produktentwicklung der TH-Nürnberg. christian.deuerlein@th-nuernberg.de

M. Sc. Christian Deuerlein ist Wissenschaftlicher Mitarbeiter am Institut für Chemie-, Material und Produktentwicklung der TH-Nürnberg. christian.deuerlein@th-nuernberg.de