Roboter lassen sich mithilfe menschlicher Gehirnaktivität über sogenannte Brain-Computer-Interfaces (BCIs) steuern. Dabei kommt Elektroenzephalografie (EEG) zum Einsatz, bei der am Kopf angelegte Elektroden Potentialänderungen im Gehirn messen. Im Gegensatz zu klassischen BCIs geht der von den Wissenschaftlerinnen und Wissenschaftlern entwickelte ganzheitliche Ansatz "embedded Brain Reading" (eBR) noch einen Schritt weiter: Gehirnaktivität kann nicht nur gemessen, sondern auch interpretiert werden. Auf diese Weise lassen sich Handlungsabsichten und die kognitive Auslastung von Personen erkennen. Dabei setzt eBR ausschließlich auf die passive Beobachtung natürlich auftretender Gehirnaktivität und vermeidet so eine Mehrbelastung des Menschen durch die Nutzung eines BCIs. Zudem ermöglicht der innovative Ansatz, der zusätzlich zum EEG auch auf Elektromyografie zur Messung der Muskelaktivität, Eye-Tracking und Bewegungsanalyse setzt, die vollständige und fehlertolerante Integration der Gehirnaktivität in die Steuerung technischer Systeme. Dies machen sich die Forscher z.B. bei der Teleoperation von Weltraumrobotern, aber auch bei der EEG-basierten Steuerung robotischer Exoskelette zunutze.
Ereigniskorrelierte Potentiale geben Aufschluss über die Informationsverarbeitung beim Menschen
Beim embedded Brain Reading dienen ereigniskorrelierte Potentiale (engl.: event related potentials, ERPs) im EEG als Input-Quellen, die als Reaktion auf eine interne Zustandsänderung oder einen externen Reiz entstehen. Am DFKI werden diese Potentiale genutzt, um die Interaktion zwischen Mensch und Roboter zu verbessern. In ihrem Aufsatz "Multi-tasking and Choice of Training Data Influencing Parietal ERP Expression and Single-trial Detection - Relevance for Neuroscience and Clinical Applications", der am 27. März 2018 in dem Fachjournal Frontiers in Neuroscience erschien, untersuchen die Wissenschaftlerinnen Dr. Elsa Andrea Kirchner und Dr. Su Kyoung Kim, wie sich ERPs durch single-trial Detektion im EEG erkennen lassen und welchen Einfluss unterschiedliche Trainingsmodalitäten haben. Es zeigte sich, dass sich ERPs durch single-trial Erkennung auch unter "dual-task"-Bedingungen erfolgreich detektieren lassen, also wenn der Mensch nicht nur einer sondern mehreren Aktivitäten nachgeht. Dabei ist die Detektionsleistung umso höher, je seltener und bedeutender ein bei der Aufgabe hervorgerufener Reiz ist. Die single-trial ERP-Erkennung eignet sich insbesondere für die Online-EEG-Analyse in Echtzeit, etwa zur Steuerung eines Exoskeletts. Im Rahmen der rehabilitativen Therapie kann die ERP-Erkennung nicht nur Hinweise zu geplanten Bewegungen, sondern z.B. auch über den Aufmerksamkeitszustand eines Patienten geben.
Roboter lernen dank menschlichem Negativ-Feedback aus eigenem Fehlverhalten
Zu den ereigniskorrelierten Potenzialen gehört das sogenannte fehlerkorrelierte Potential (engl.: error-related potential). Wie sich dieses für die Mensch-Roboter-Interaktion gewinnbringend einsetzten lässt, ist Gegenstand des am 14. Dezember 2017 in dem Fachjournal Scientific Reports - Nature erschienenen Papers "Intrinsic interactive reinforcement learning - Using error-related potentials for real world human-robot interaction". Darin beschreiben die Wissenschaftlerinnen und Wissenschaftler des Robotics Innovation Center und der Universität Bremen Dr. Su Kyoung Kim, Dr. Elsa Andrea Kirchner, Arne Stefes und Prof. Dr. Dr. h.c. Frank Kirchner ein am DFKI entwickeltes Verfahren des Maschinellen Lernens, bei dem ein Roboter aus dem eigenen Fehlverhalten in der gestengesteuerten Interaktion mit dem Menschen lernen kann. Der Roboter ist dabei in der Lage, gleichzeitig zu lernen, die Gesten des Menschen zu unterscheiden und den von ihm ausführbaren Aktionen zuzuordnen. Ob diese Zuordnung richtig oder falsch war, erfährt er anhand der EEG-Messung beim Menschen, durch die er im Falle einer fehlerhaften Aktion ein negatives Feedback, das fehlerkorrelierte Potential, erhält. Dies entlastet den Menschen in der Interaktion, da er die Rückmeldung nicht bewusst an den Roboter geben muss, sondern diese dank eBR bereits auf der unterbewussten Ebene bei ihm abgegriffen wird. Die Bremer Forscher konnten das auf intrinsisches Feedback beruhende Verfahren erstmals in der Interaktion mit einem echten Robotersystem anwenden, und zeigen, dass es zu einer Verbesserung der Interaktion zwischen Mensch und Roboter führt. Bei der Rehabilitation mit Exoskeletten ließe sich das Error-Potential z.B. nutzen, um Erkenntnisse über die Akzeptanz durch den Nutzer zu gewinnen.
FPGAs ermöglichen die mobile Verarbeitung physiologischer Daten in Echtzeit
Die Verwendung physiologischer Daten zur Verbesserung der Funktionalität und Benutzerfreundlichkeit in technischen Rehabilitationssystemen ist jedoch an die Möglichkeit ihrer Verarbeitung gebunden. Diese muss in Echtzeit erfolgen, um eine möglichst natürliche Unterstützung der Bewegungen zu realisieren. Zudem braucht es mobile und miniaturisierte Verarbeitungssysteme, die in die Rehabilitationseinrichtung eingebettet werden können. In dem Paper "A Hybrid FPGA-Based System for EEG- and EMG-Based Online Movement Prediction", das am 3. Juli 2017 in dem Fachjournal Sensors publiziert wurde, stellen Wissenschaftlerinnen und Wissenschaftler des DFKI und der Universität Bremen - Dr. Hendrik Wöhrle, Marc Tabie, Dr. Su Kyoung Kim, Prof. Dr. Dr. h.c. Frank Kirchner und Dr. Elsa Andrea Kirchner - ein kompaktes Brain-Reading-System zur Echtzeit-Bewegungsvorhersage vor. Dabei setzen sie auf sogenannte Field Programmable Gate Arrays (FPGAs), wiederprogrammierbare Schaltkreise, die parallele Verarbeitungsoperationen ermöglichen und daher große Datenmengen in kürzester Zeit verarbeiten können. Um diese für die Robotik nutzbar zu machen, entwickelten die Forscher zudem das Software-Framework reSPACE. Dieses definiert die verschiedenen anwendungsspezifischen Rechenoperationen, die nach dem Baukastenprinzip zu einem Datenflussbeschleuniger kombiniert und auf dem FPGA zur Verfügung gestellt werden. Durch die Echtzeit-Auswertung von EEG-Daten kann das entwickelte System z.B. die Regelung eines Exoskeletts unterstützen. Die FPGAs bewältigen die dabei anfallende riesige Datenmenge innerhalb weniger Nanosekunden - nur so kann das Exoskelett genau im richtigen Moment die Armbewegung unterstützen.
- Link zum Paper "Multi-tasking and Choice of Training Data Influencing Parietal ERP Expression and Single-trial Detection - Relevance for Neuroscience and Clinical Applications", erschienen am 27. März 2018 in Frontiers in Neuroscience: www.frontiersin.org/articles/10.3389/fnins.2018.00188/full
- Link zum Paper "Intrinsic interactive reinforcement learning - Using error-related potentials for real world human-robot interaction", erschienen am 14. Dezember 2017 in Scientific Reports - Nature: www.nature.com/articles/s41598-017-17682-7
- Link zum Paper "A Hybrid FPGA-Based System for EEG- and EMG-Based Online Movement Prediction", erschienen am 3. Juli 2017 in Sensors: www.mdpi.com/1424-8220/17/7/1552/htm
Auf der CEBIT-Expo vom 12. bis 15. Juni 2018 in Hannover? stellt das DFKI in Halle 27, Stand F62, das Projekt Recupera REHA vor. Darin gelang dem Robotics Innovation Center ein Durchbruch auf dem Gebiet der Rehabilitationsrobotik: Gemeinsam mit der rehaworks GmbH entwickelte es ein mobiles Exoskelett für die Oberkörperassistenz speziell zur robotergestützten Therapie nach einem Schlaganfall, dass sich u.a. auf Basis von EEG-Daten steuern lässt. Im Projekt fanden die Erkenntnisse und Technologien zum embedded Brain Reading Anwendung.
Weitere Informationen:
Projekt Recupera REHA
Software-Framework reSPACE
Ansprechpartner:
Dr. Elsa Andrea Kirchner
Deutsches Forschungszentrum für Künstliche Intelligenz GmbH
Robotics Innovation Center
E-Mail: Elsa.Kirchner@dfki.de
Tel.: +49 421 17845 4113
Pressekontakt:
Deutsches Forschungszentrum für Künstliche Intelligenz GmbH
Unternehmenskommunikation Bremen
E-Mail: uk-hb@dfki.de
Tel.: +49 421 17845 4180