Nach einer Getränkedose greifen, einen Kugelschreiber in die Hand nehmen, einen Hund streicheln - alltägliche Handlungen, über die sich die meisten Menschen kaum Gedanken machen. Für Roboter sind diese Aufgaben jedoch komplex. Sie haben zwar Sensoren, jedoch keinen richtigen Tastsinn wie Menschen, und können noch nicht gut in Situationen reagieren, für die sie nicht trainiert wurden. Ihnen fehlt es sozusagen an Fingerspitzengefühl: „Ein Roboter weiß nicht automatisch, wie er eine Getränkedose greift, ohne sie zu zerquetschen, da er nicht weiß, wie viel Kraft er dafür aufwenden muss. Das macht den flexiblen Einsatz der Maschinen in unvorhersehbaren Umgebungen, in denen sie auch mit Menschen in Kontakt kommen, schwierig und gefährlich“, so Prof. Dr. Jan Peters, Leiter der Forschungsgruppe „Systemische KI für Lernende Roboter“ (SAIROL) am DFKI.
Auf der CoRL stellen die Forschenden aus Darmstadt jetzt mit TacEx eine innovative Lösung für dieses Problem vor. Es handelt sich dabei um einen zuverlässigen und genauen modularen Simulator für taktile Sensoren von GelSight. Simulationen sind vielversprechend für das Training von Robotern. Die Maschinen lernen dabei durch simulierte Situationen, in denen sie verschiedene Aufgaben lösen, für ihren Einsatz in der realen Welt. Das innovative Framework aus Darmstadt ermöglicht den Einsatz von GelSight Mini Sensoren für Reinforcement Learning. Im Rahmen der Simulation erfüllen die Roboter verschiedene Manipulationsaufgaben und können dadurch ihre Feinmotorik trainieren.
Neben der Feinmotorik muss bei Robotern auch die Fortbewegung trainiert werden. Humanoide Roboter zum Beispiel sind vielversprechend für den Einsatz in vielen Bereichen, aber ihre Fortbewegung ist komplex, da sie nur wenige Berührungspunkte mit dem Boden haben. Aufgrund ihrer Ähnlichkeit mit dem Menschen gibt es jedoch eine große Menge an Daten, anhand derer Roboter trainiert werden können. Unter anderem können Videos von Menschen bei der Ausführung von Aufgaben als Datengrundlage dienen.
Die Herausforderung besteht darin, aus der Fülle dieser Daten mögliche Regeln für das Verhalten der Roboter zu generieren, um diese zu trainieren. Im Bereich der Manipulation werden dazu erfolgreich Diffusion Policies (DP) eingesetzt. „Bei der Fortbewegung von Robotern wird jedoch noch verstärkt auf Reinforcement Learning gesetzt. Dadurch entstehen oft seltsame Fortbewegungsweisen“, so Dr. Boris Belousov, stellvertretender Leiter des Forschungsbereichs SAIROL. Die Darmstädter Forscherinnen und Forscher haben jetzt untersucht, ob DPs auch beim Training der Fortbewegung von humanoiden Robotern helfen können. Dabei stellten sie fest, dass Roboter mit Hilfe von DPs zwar ein stabiles Gangbild entwickeln können, für ein erfolgreiches Training der Fortbewegung jedoch eine größere und vielfältigere Datenbasis notwendig ist, als sie für DPs im Bereich der Manipulation benötigt wird. Dieser Ausgangspunkt ermöglicht neue Ansätze für das Fortbewegungslernen von humanoiden Robotern.
„Eine intelligente Maschine, die aus Erfahrungen lernt und sich automatisch an ihre Umgebung anpasst – das ist das Ziel, an dem die Teilnehmenden der CoRL arbeiten. Ich freue mich, dass wir in diesem innovativen Umfeld unsere Erkenntnisse in zwei zentralen Bereichen des Robot Learnings – der Feinmotorik und der Fortbewegung humanoider Roboter – präsentieren und damit einen Beitrag zur Robotik von morgen leisten können“, so Peters.
Die 8. Conference on Robot Learning (CoRL) findet vom 6.-9. November in München statt. Seit ihrer Gründung im Jahr 2017 widmet sich die CoRL der Förderung von Spitzenforschung und Innovation in den Bereichen Robotik und maschinellem Lernen.
DFKI-Forschungsbereichsleiter Prof. Dr. Jan Peters ist an der Organisation des Workhops LocoLearn und des Workshops Morphology-Aware Policy and Design Learning beteiligt. Außerdem hält er eine Keynote im Rahmen des Workshops on Learning Robotic Assembly of Industrial and Everyday Objects.