Skip to main content Skip to main navigation

Projekt

SC_Gomaa

TeachTAM: Machine Teaching with Hybrid Neurosymbolic Reinforcement Learning; The Apprenticeship Model

TeachTAM: Machine Teaching with Hybrid Neurosymbolic Reinforcement Learning; The Apprenticeship Model

  • Laufzeit:

Die jüngsten Fortschritte im Bereich des Machine Learning (insbesondere Computer Vision und Reinforcement Learning) haben es Robotern ermöglicht, Objekte und die Umgebung auf einer nicht-symbolischen Wahrnehmungsebene zu verstehen (z. B. Objekterkennung, Sensorfusion und Sprachverständnis). Ein aktuelles Forschungsgebiet ist jedoch das Verstehen von Objekten auf einer konzeptionell-symbolischen Ebene, so dass ein Niveau erreicht wird, auf dem Roboter wie Menschen lernen. Es geht also um ein System, in dem ein professioneller menschlicher Mitarbeiter einem Roboterlehrling konzeptionelles Wissen beibringen kann.

Daher haben Forscher:innen vor kurzem versucht, symbolische und nicht-symbolische Lernparadigmen durch Deep Reinforcement Learning (RL) zu kombinieren, um letztendlich einen menschenähnlichen Roboterlehrling zu schaffen. Das hat jedoch auch Nachteile, wie z. B: (1) die Notwendigkeit einer sehr langen Trainingszeit im Vergleich zu traditionellen Deep-Learning-Ansätzen, (2) die Konvergenz zu einer optimalen Strategie ist nicht garantiert, und es kann bei einer suboptimalen Strategie stecken bleiben, (3) ein RL-System wird in einer simulierten Umgebung trainiert, so dass er keine Aktionen vorhersehen kann, die ausschließlich in der physischen Umgebung existieren.

Ziel dieses Projekts ist es daher, ein praktisches maschinelles Echtzeit-Lernsystem in einer physischen Umgebung zu entwickeln, das auf dem Paradigma der Lehre basiert (z. B. Nachahmungslernen, Klonen von Verhaltensweisen und inverses Verstärkungslernen). Das künstliche System (d.h. der Roboter) würde sowohl auf der Wahrnehmungs- als auch auf der Begriffsebene explizit durch direktes Feedback eines menschlichen Lehrers lernen, während er implizit durch die Nutzung seiner vorhandenen Wahrnehmung (d.h. der Sensoren) der Welt auf natürliche, multimodale Weise lernt und versteht. Darüber hinaus wäre dieses System ein dynamisches, universelles System, das mehrere Bereiche (z. B. Industrieroboter, chirurgische Roboter und Handwerksroboter) mit geringen oder gar keinen Änderungen an der Modellarchitektur (durch Transferlernen) abdecken kann und gleichzeitig spezifisch genug ist, damit Fachleute ihr Wissen in den Lernprozess einbringen können.

Partner

ZEISS Group

Fördergeber

BMBF - Bundesministerium für Bildung und Forschung

BMBF - Bundesministerium für Bildung und Forschung

Publikationen zum Projekt

Amr Gomaa; Robin Zitt; Guillermo Reyes; Antonio Krüger

In: Adjunct Proceedings of the 36th Annual ACM Symposium on User Interface Software and Technology. ACM Symposium on User Interface Software and Technology (UIST-2023), New York, NY, USA, UIST '23 Adjunct, ISBN 9798400700965, Association for Computing Machinery (ACM), 10/2023.

Zur Publikation

Amr Gomaa; Michael Feld

In: Proceedings of the 25th International Conference on Multimodal Interaction. International Conference on Multimodal Interfaces (ICMI-2023), Paris, France, ICMI '23, ISBN 9798400700552, Association for Computing Machinery, 10/2023.

Zur Publikation

Amr Gomaa; Bilal Mahdy

In: Proceedings of the 1st International Workshop on Human-in-the-Loop Applied Machine Learning (HITLAML 2023). International Workshop on Human-in-the-Loop Applied Machine Learning (HITLAML-2023), Luxembourg, CEUR Workshop Proceedings (CEUR-WS.org), 9/2023.

Zur Publikation