Sie sind seit einiger Zeit Professor an der TU Darmstadt und nun auch Forschungsbereichsleiter am DFKI. Welchen Fokus hat Ihre Forschung und was fasziniert Sie und Ihr Team am meisten?
Technisch gesehen steht im Forschungsbereich „Systemische KI für Lernende Roboter“ oder auch „Systems AI for Robot Learning – SAIROL“, vor allem Grundlagenforschung zum maschinellen Lernen für intelligente autonome Robotersysteme im Vordergrund. Also die Entwicklung von Methoden und entsprechenden Architekturen für solche Systeme. Aber auch deren Einsatz in der Cognitive Science, mit biologisch und neuronal inspirierten Ansätzen der Künstlichen Intelligenz, beispielsweise die Interaktion über Brain-Robot-Interfaces oder für roboterunterstütze Rehabilitation und Prothetik.
Dabei faszinieren uns besonders die spielerischen Aspekte von lernenden Robotern, aus denen man vielerlei Lehren ziehen kann. So versuchen wir zum Beispiel aktuell, Robotern Air Hockey beizubringen. Zuvor haben wir uns fast zehn Jahre mit Tischtennis beschäftigt.
Warum gerade Tischtennis und Air Hockey?
Wir wollten zeigen, dass ein Robot Learning System ein solches Spiel von einem Menschen lernen kann – und zwar besser und schneller als ein klassisch programmierter Roboter. Deshalb haben wir mit Tischtennis begonnen. Denn bisher konnte niemand einen Tischtennis-Roboter bauen oder programmieren, der dem Menschen vergleichbar ist. Das haben wir geschafft. Doch gibt es beim Tischtennis weitere Hürden. Der Aspekt der Intelligenz tritt dabei mittlerweile in den Hintergrund. Eine viel größere Herausforderung ist die großartige Mechanik des Menschen. Muskeln können schnell hohe Beschleunigungen produzieren, die Robotern generell schwerfallen – auch, wenn Roboter genauer und schneller sind. Zwar ist es uns gelungen, einen Roboter mit menschenähnlichen Beschleunigungen zu entwickeln, doch kommen wir dabei schon zur nächsten Schwierigkeit: Der Mensch kann einen Schritt zu Seite weichen und dort den gleichen Schlag erneut ausführen. Bei einem Roboter bedeutet das, dass man ihn auf eine mobile Basis platzieren müsste. Das erfordert enorm komplexe Hardware und ist deshalb schwer umzusetzen. Ein stationärer Roboterarm ist daher nicht nur in seiner Mobilität eingeschränkt, sondern muss auch viele verschiedene Schläge in seiner Position erlernen. Dennoch ist Tischtennis eine vergleichsweise regelmäßige Situation. Wenn regelkonform gespielt wird, muss zum Beispiel der Ball im Spiel auf der gegnerischen Tisch-Tennis-Seite aufkommen.
Im Air Hockey ist die Situation ungleich spannender. Anders als Tischtennis, ist es geradezu chaotisch. Beispielsweise kann der Puck, wenn er nur minimal abweichend getroffen wird, an einen komplett anderen Punkt gelangen und es muss eine ganz neue Antwort auf den Schlag gefunden werden. Menschen sind zudem gut darin, beim Air Hockey zu tricksen, beispielsweise indem sie falsche Schlagrichtungen als Finten andeuten. Auch darauf muss der Roboter reagieren. Bei unserem Forschungsprototypen lassen wir zwei Roboterarme gegeneinander spielen und verwenden weitere Roboter zur Unterstützung, zum Beispiel zum Wiedereinwurf des Pucks. Wir beschäftigen uns auf allen Ebenen damit, was für eine Intelligenz für das Spiel benötigt wird. Zum einen braucht man die Intelligenz der Motorik. Des Weiteren erfordert es perzeptuellen, auf Wahrnehmung beruhenden Input und langfristigere Strategie. Man muss den Roboter prädiktiv verzahnen und Modelle über den Gegner bilden. So kann dieser intelligent ausgetrickst werden und ein spannenderer Spielverlauf kommt zustande. Das sind verschiedene kognitive Ebenen, auf denen man sich befindet und wir können daraus viele Erkenntnisse über deren Zusammenspiel sowie über das zwischen neuronaler und symbolischer KI ziehen.
„In der Industrie-Robotik existiert ein riesiges Potenzial, wenn wir die Umgebung nicht mehr an den Roboter anpassen müssten.“
Welches Potenzial sehen Sie für lernende Roboter in der Zukunft? Wie kann sich der Bereich weiterentwickeln?
Im Augenblick basiert die Roboter-Anwendung darauf, dass wir die Umgebung manuell an die Roboter anpassen. Industrieroboter-Umgebungen sind so entwickelt worden, dass kaum ein Sensor verwendet werden muss. Die Maschinen fahren die gleichen Trajektorien mit 150 Mikrometer Genauigkeit ab. Wenn ein Mensch in den Arbeitsraum kommt, kann das für ihn lebensgefährlich sein. Deswegen sind Roboter dort häufig in Käfigen und man legt man großen Wert darauf, die Menschen von ihnen fernzuhalten. In der Industrie-Robotik gibt es aber ein riesiges Potenzial, wenn wir die Umgebung nicht mehr an den Roboter anpassen müssten. Ein früherer Vorstandsvorsitzender vom Maschinenbauunternehmen Kuka hat es mal treffend auf den Punkt gebracht: „Die Roboter der Gegenwart führen dieselbe Bewegung Millionen Male aus. Die Roboter der Zukunft müssen tausende von verschiedenen Bewegungen nur wenige Male ausführen.“ Das wird vermutlich die kundenzentrierten Produkte der Zukunft ausmachen, ist mit klassischer Roboterprogrammierung aber nicht realisierbar. Um das hinzukriegen, muss sich die Robotik grundlegend ändern: Es sollte nicht mehr die Umgebung an den Roboter angepasst werden sondern der Roboter sollte lernen, sich an Aufgaben und die Umgebung anzupassen. Genau damit beschäftigt sich das Feld des „Robot Learning“.
Das Potential anpassungsfähiger Roboter ist wahrscheinlich nicht nur auf industrielle Anwendungen beschränkt, oder?
Es geht sogar noch darüber hinaus. Beispielsweise könnten Hol- und Bring-Aufgaben in Kliniken von Robotern übernommen werden. Das würde Krankenpflegerinnen und Krankenpflegern mehr Zeit für die Pflege einräumen. Kein Job wäre dadurch gefährdet – im Gegenteil. Es würde die Arbeit für viele erleichtern und angenehmer gestalten. Man kann auch einen Blick auf die Rehabilitation werfen. Diesen Bereich sollte man durch adaptive Geräte unterstützen. Vergleichbar mit der Systematik beim Air Hockey, bei dem es darum geht, Modelle über den Gegner zu erstellen, kann man hier Modelle über die Patienten bauen, um sie bei ihren Bewegungen geeignet zu unterstützen. Das haben wir mit der Klinik Tübingen und dem Max-Planck-Institut für Intelligente Systeme schon beispielhaft entwickelt. Dabei konnten wir zeigen, dass die Kombination von Gehirn und Computer über entsprechende Brain-Interfaces mit einem Roboterarm und Roboter-Lernen funktioniert. Das ermöglicht, motorische Unterstützung in der Rehabilitation zu leisten.
„Der Staubsaugerroboter hat bereits bewiesen, dass Roboter in Millionen von Haushalten Einzug halten, wenn sie erschwinglich sind.“
Können Sie einen Ausblick geben, wie es in nächster Zeit mit dem Haushaltsroboter aussehen wird?
Die Idee vom Roboter, der im Haushalt hilft, ist schon sehr alt. Wir kennen ihn bereits aus TV-Serien der 1950er und 1960er Jahre. Ein wichtiger Faktor hat sich seitdem enorm gewandelt. Als ich meine Promotion abschloss, hätte ein Haushaltsroboter bis zu einer halben Millionen Euro gekostet. Die Arme konnte man für jeweils 120.000 Euro erwerben. Heutzutage kann man sie für ein Zehntel dieses Preises kaufen. Wenn man die Teile heute einkaufen würde, läge man bei insgesamt ca. 20.000 Euro. Die Kosten sind also enorm gesunken. Wenn das so weitergeht, wird der Haushaltsroboter allmählich bezahlbar. Der Staubsaugerroboter hat bereits bewiesen, dass Roboter in Millionen von Haushalten Einzug halten können, wenn sie erschwinglich genug sind.
Der voll funktionsfähige Haushaltsroboter ist also für 20.000 Euro schon zu erwerben oder liegt es doch noch an bestimmten technischen Fähigkeiten?
Technisch ist es machbar, den Haushaltsroboter für eine gewisse Art von Häusern zu entwickeln. Allerdings ist der Markt viel zu klein. Darüber hinaus wäre nicht jedes Haus dafür geeignet. Aber für die ländertypischen Küchen und Wohnzimmer wäre das im Augenblick unproblematisch. Zudem ist es ein iterativer Prozess. Anders als beim autonomen Fahren kann sich so ein System eine gewisse Menge an Fehlern erlauben, ohne dass Menschenleben riskiert werden. Damit sind die Hindernisse kleiner.
Ist die Angst begründet, Sorge vor der Verselbstständigung solcher Roboter zu haben?
Davor hätte ich keine Sorge. Noch sind die hochspezialisierten Systeme für bestimmte Aufgaben ohne generelle Intelligenz. Problematischer sehe ich einfache Softwaresysteme, bei denen man nicht darüber nachgedacht hat, welche menschlichen Regeln man in der Software abgebildet hat. In der künstlichen Intelligenz werden unsere Modelle mit vielen Daten und vielen Validierungen gefüttert. Wenn ich sehe, wie kostengünstig Programme installiert wurden, mit denen Banken Jahrzehnte lang arbeiten, bereitet mir die größere Sorgen. So ist beispielsweise einer der größten Börsencrashs der 1980er Jahre in den USA darauf zurückzuführen. Einfache „If/Then“-Regeln über Kaufen und Verkaufen waren damals in den Computern der Banken eingespeichert. Solange sich die Börse nicht außerhalb der Normalverteilung bewegte, lief das auch soweit gut. Eine Normalverteilung ist aber ein schlechtes Modell für soziale und finanzielle Prozesse, weil diese meistens sogenannte ‚Heavy Tails‘ aufweisen. Das sind sehr, sehr unwahrscheinliche Ereignisse, die aber trotzdem eintreten können. Es gab damals eine große Schwankung, so dass die ganzen „If/Then“-Regeln wie ein Lichterbaum angegangen sind. Am Ende hat man buchstäblich den Stecker aus dem Computer gezogen, um einen Zusammenbruch der amerikanischen Wirtschaft zu verhindert. Das kann uns heute, in verschiedenster Form, jeden Tag wieder passieren und es wird durch die schnelle technische Entwicklung eher wahrscheinlicher. Egal ob bei den neuen Energienetzen, in der industriellen Fertigung oder der Home Automation. Da ist die Gefahr eines „Terminators“ im Vergleich völlig vernachlässigbar.
„Wenn alle Menschen aus der KI-Branche in eine Richtung laufen, ist es der richtige Zeitpunkt, einen anderen Weg zu gehen.“
Welchen Ratschlag geben Sie jungen Menschen, die im Bereich der Künstlichen Intelligenz tätig sein möchten?
Eine elementare Voraussetzung ist, sich ein breites Fundament in der KI aufzubauen. Wenn alle Menschen aus der KI-Branche in eine Richtung laufen, ist es der richtige Zeitpunkt, einen anderen Weg zu gehen. Im Moment sind tiefe neuronale Netze das beliebteste Themenfeld der KI. Dieser Ansatz wurde nach 20 Jahren des Totsagens zum dritten Mal wieder zum Leben erweckt. Man hatte diesen Ansatz aus methodischen Gründen für gescheitert gehalten. Mittlerweile hat sich herausgestellt, dass es vor Allem an Rechenzeit fehlte und die Datensätze zu klein waren. Als tiefe neuronale Netze wieder aufkamen, lag zunächst viel Skepsis in der Luft. Diese löste sich auf, als Deep Learning große Erfolge in Computer Vision und Natural Language Processing zeigen konnte. Dementsprechend ist Deep Learning ein wichtiger Pfeiler für die Künstliche Intelligenz. Aber der gleiche Ansatz alleine wird im Robot Learning oder auch im maschinellen Lernen für reale technische Systeme nicht funktionieren. Eine physikalisches System produziert seine Daten in realer Zeit und wird davon nie genug haben. Es reagiert auch in realer Zeit mit limitierter Rechenleistung. Hier werden also grundlegend andere Einsichten benötigt.
Mein Ratschlag ist es daher, sich möglichst tiefe und breite Grundlagen in der KI anzueignen. Danach nimmt man die KI-Landschaft in den Blick und orientiert sich eigenständig. Zwar sollte man nah genug an den aktuellen Themen sein, allerdings nicht dem „Mainstream“ folgen, sonst ist man immer der Nachzügler und Nachahmer. Durch den Fokus auf KI-Grundlagen können Probleme antizipiert werden, die in dieser Form noch keiner zuvor betrachtet hat. Das geschieht nur, wenn man nicht alle Daten aus dem Internet herunterladen kann oder die Algorithmen und Frameworks von Google und Facebook bereitgestellt werden. Man sollte eigenständiges Leisten in den Vordergrund stellen. Das ist das Schöne bei der systemischen KI im Bereich Robot Learning. Dort haben wir sehr viele solcher Entfaltungsmöglichkeiten.
Das Interview führte Franziska Peters, DFKI Unternehmenskommunikation.