Skip to main content Skip to main navigation

Projekt | MOMENTUM

Laufzeit:
Robustes Lernen mit Hybrider KI für vertrauenswürdige Interaktion von Menschen und Maschinen in komplexen Umgebungen

Robustes Lernen mit Hybrider KI für vertrauenswürdige Interaktion von Menschen und Maschinen in komplexen Umgebungen

MOMENTUM ist ein Forschungsprojekt, das sich dem Themengebiet TRUSTED-AI widmet und darauf abzielt, die Entwicklung und Anwendung von künstlicher Intelligenz durch die Integration von Robustheit und Erklärbarkeit voranzutreiben. Das Ziel des Projekts ist es, die Entwicklung von autonomen Systemen sicherer, zuverlässiger und transparenter zu gestalten. Hierbei wird insbesondere darauf geachtet, dass diese Systeme auch in komplexen Umgebungen mit Menschen interagieren können, ohne deren Sicherheit und Privatsphäre zu gefährden. Dabei werden verschiedene Aspekte der KI wie zum Beispiel Verhaltens- und Bewegungsmodelle, Navigation und Posenextraktion untersucht und weiterentwickelt. Durch die enge Zusammenarbeit von Experten aus verschiedenen Teams soll eine ganzheitliche Lösung für die sichere Implementierung von KI in autonomen Systemen geschaffen werden.

MOMENTUM betrachtet autonomes Fahren als ein wichtiges Anwendungsgebiet für Trusted-AI, wie es auch im Vorgängerprojekt REACT der Fall war. Allerdings konzentriert sich MOMENTUM nicht ausschließlich auf dieses Gebiet, sondern bezieht auch andere Bereiche ein, wie die industrielle Produktion oder die Medizin. Durch die Entwicklung von Trusted-AI-Methoden und -Technologien, die auf verschiedene Anwendungsgebiete anwendbar sind, strebt das MOMENTUM-Projekt an, einen breiteren Nutzen für die Gesellschaft und die Industrie zu schaffen.

Das MOMENTUM-Projekt hat mehrere Arbeitspakete im Bereich TRUSTED-AI, darunter das Arbeitspaket HC (Human-Centered), welches sich auf die Erforschung neuer Methoden zur Bewegungsaufnahme und Bewegungssynthese konzentriert. Der Fokus liegt hierbei auf dem Anwendungsfall des autonomen Fahrens. Es werden neue Methoden für Mixture-of-Expert-Modelle, Convolutional-Neuronal-Nets und Reinforcement-Learning untersucht und Methoden zur Integration von Umgebung und Verhaltensmodell entwickelt. Zur Schaffung einer ausreichenden Datenbasis für die Simulation von kritischen Szenarien werden neue Daten durch Aufnahmen von Fußgängerbewegungen erstellt. Die untersuchten Methoden können auch auf andere Anwendungsgebiete übertragen werden. Zudem wird in HC die Steuerung von simulierten Fußgängern erforscht, um menschenzentrierte kritische Situationen zu generieren. Im Arbeitspaket MC (Machine-Centered) wird ein physikalisch korrektes Modell zur LiDAR-Simulation entwickelt, das auch Umgebungsrauschen und Hardware-Einheiten berücksichtigt. Hierbei werden ML- und DNN-Methoden kombiniert und verschiedene Lernmethoden in unbeaufsichtigtem, halbüberwachtem und selbstüberwachtem Lernen untersucht. In diesem Arbeitspaket wird auch die Kombination von tiefem Lernen und automatischem Planen unter Unsicherheit erforscht, um Entscheidungen von Agenten in teilweise beobachtbaren Umgebungen zu treffen. Im Arbeitspaket DR (Digital Reality) wird die Nutzung von parametrischen Modellen zur Generierung von synthetischen Trainingsdaten untersucht, um Deep-Learning-Netzwerke zu verbessern. Hierbei werden Teilmodelle der realen Welt zu hochdimensionalen Parameterräumen kombiniert, um simulationsfertige Szenen zu erzeugen. Ein Maß für die Ähnlichkeit von Konfigurationen wird eingeführt und verschiedene Stichprobenstrategien untersucht, um die optimale Auswahl von Datenpunkten zu ermitteln.

Das Projekt MOMENTUM spielt eine bedeutende Rolle im Bereich der Forschung an autonomen Systemen und vertrauenswürdiger künstlicher Intelligenz. Insbesondere im Forschungsbereich ASR trägt das Projekt dazu bei, Grundlagen für die Entwicklung von sicheren, zuverlässigen und transparenten autonomen Systemen zu schaffen. Durch die enge Zusammenarbeit von Experten aus verschiedenen Teams und die Erforschung neuer Methoden und Technologien werden wichtige Beiträge im strategisch wichtigen Bereich Trusted-AI geleistet.

Publikationen zum Projekt

  1. Reliable Student: Addressing Noise in Semi-Supervised 3D Object Detection

    Farzad Nozarian; Shashank Agarwal; Farzaneh Rezaeianaran; Danish Shahzad; Atanas Poibrenski; Christian Müller; Philipp Slusallek

    In: Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) Workshops. CVPR Workshop on Learning with Limited Labelled Data for Image and Video Understanding (L3D-IVU-2023), located at 2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition, June 19, Vancouver, Canada, Pages 4981-4990, IEEE, 6/2023.
  2. AJAN: An Engineering Framework for Semantic Web-Enabled Agents and Multi-Agent Systems

    André Antakli; Akbar Kazimov; Daniel Spieldenner; Gloria Elena Jaramillo Rojas; Ingo Zinnikus; Matthias Klusch

    In: Philippe Mathieu; Frank Dignum; Paulo Novais; Fernando De la Prieta (Hrsg.). Advances in Practical Applications of Agents, Multi-Agent Systems, and Cognitive Mimetics. The PAAMS Collection. International Conference on Practical Applications of Intelligent Agents and Multiagents (PAAMS-2023), 21th, July 12-14, Guimarães, Portugal, Springer Nature, 2023.

Fördergeber

BMBF - Bundesministerium für Bildung, Wissenschaft, Forschung und Technologie

01IW22001

BMBF - Bundesministerium für Bildung, Wissenschaft, Forschung und Technologie