Projekt

XAINES

KI mit Narrativen erklären

KI mit Narrativen erklären

Im Projekt XAINES soll nicht nur die Erklärbarkeit sichergestellt werden, sondern darüber hinaus Erklärungen (Narrative) bereitgestellt werden. Die zentrale Frage dabei ist, ob die KI in einem Satz erklären kann, warum sie so gehandelt hat oder ob sie es dem Nutzer interaktiv erklären muss. Um dies zu klären ist einer der Projektschwerpunkte die Erforschung von narrativen und interaktiven Erzählungen, welche besonders für Menschen geeignet sind, um Wissen in jedweder Form aufzunehmen, in ihrer Anwendung mit KI-Systemen. Um erklärende Erzählungen zu erhalten, werden (sprach-)markierte Sensordatenströme und prädikative Modelle verwendet. Sensorinformationen werden mit Sprachinformationen kombiniert, daraus entwickelt das KI-System sog. Szenenverständnis, wodurch dann Erklärungen generiert werden.

Bei den Narrativen wird unterschieden zwischen Domänennarrativen und Machine Learning Narrativen. Domänennarrative zeigen was in der Domäne passierte, wie sie durch sprachgestützte Aktivitätserkennung erfasst wurde. Machine Learning Narrative sind solche, die die Vorhersagen dieser Modelle erklären. Domänennarrative und ML-Narrative sind miteinander verknüpft, denn Domänennarrative werden durch maschinelles Lernen konstruiert. Als Endnutzer dieser Narrative sollen zum einen die Entwickler der KI-Module sein, zum anderen die Fachexperten, die die Software verwenden, aber auch interessierte Laien, anvisiert werden.

Gefördert wird das Projekt XAINES, an dem 7 Forschungsbereiche des DFKI eng verzahnt zusammenarbeiten, durch das Bundesministerium für Bildung und Forschung (BMBF). Dabei folgt das Projekt der neuen Richtlinie „Erklärbarkeit und Transparenz des Maschinellen Lernens und der Künstlichen Intelligenz“, die im Rahmen der KI-Strategie der Bundesregierung, aufgelegt wurde.

Die verschiedenen Anwendungsfälle (engl. use cases) stammen aus dem Bereich Autonomes Fahren (ASR), Automatisierung im Bauwesen (EI) und der interaktiven medizinischen Entscheidungsunterstützung (IML).

Partner

Forschungsbereiche: Agenten und Simulierte Realität (ASR), Interaktives Maschinelles Lernen (IML), Smarte Daten und Wissensdienste (SDS), Eingebettete Intelligenz (EI), Sprachtechnologie (SLT), Sprachtechnologie und Multilingualität (MLT), Algorithmic Business and Production (ABP)

Fördergeber

Publikationen zum Projekt

Rajarshi Biswas, Michael Barz, Mareike Hartmann, Daniel Sonntag

In: Luis Espinosa-Anke , Carlos Martin-Vide , Irena Spasic (Hrsg.). Statistical Language and Speech Processing SLSP 2021. International Conference on Statistical Language and Speech Processing (SLSP) 8th-9th November 22-26 Cardiff United Kingdom Lecture Notes in Computer Science / Lecture Notes in Artificial Intelligence (LNCS / LNAI) Springer Heidelberg 11/2021.

Zur Publikation
Rasmus Kær Jørgensen, Xiang Dai, Desmond Elliott, Mareike Hartmann

In: Findings of the Association for Computational Linguistics: EMNLP 2021 Findings of the Association for Computational Linguistics - EMNLP 2021. Conference on Empirical Methods in Natural Language Processing (EMNLP-2021) November 7-11 Online Dominican Republic Seiten 3404-3018 1 Association for Computational Linguistics 11/2021.

Zur Publikation
Miryam de Lhoneux, Daniel Hershcovich, Yova Kementchedjhieva, Lukas Nielsen, Chen Qiu, Anders Søgaard, Mareike Hartmann

In: Proceedings of the 25th Conference on Computational Natural Language Learning (CoNLL). Conference on Computational Natural Language Learning (CoNLL-2021) November 10-11 Online Dominican Republic Seiten 224-257 Association for Computational Linguistics 11/2021.

Zur Publikation

Deutsches Forschungszentrum für Künstliche Intelligenz
German Research Center for Artificial Intelligence