Skip to main content Skip to main navigation
DFKI Sprachtechnologie© DFKI, Berlin

Speech and Language Technology

XplaiNLP

Ziel:

Schaffung intelligenter Entscheidungsunterstützungssysteme (IDSS) durch die Erforschung des gesamten Zyklus von der Entwicklung und Implementierung großer Sprachmodelle bis hin zur Gestaltung von Benutzeroberflächen mit für den Menschen aussagekräftigen Darstellungen von Modellergebnissen und Metadaten, durch die Implementierung von eXplanations und Transparenzmerkmalen von NLP-basierten Vorhersagen.

Themen:

  • Erkennung von Fake News und Hassreden (Text und Bild)
  • Extraktion von Behauptungen, Verifizierung von Behauptungen und Argumentationssuche
  • Nachgelagerte NLP-Aufgaben und RAGs
  • Erkennung von Verzerrungen in Datensätzen und Modellen
  • Mensch-Computer-Interaktion
  • Erklärbare KI
  • KI-Regulierung (Analyse der Auswirkungen von KI-Gesetz, GDPR, DSA, DA zu Data Scraping und LLLMs)

Anwendungsbereiche

Wir arbeiten hauptsächlich an Texten aus den Bereichen Nachrichten und Gesundheit.


Anwendungsfälle

In der XplaiNLP Gruppe entwickeln und nutzen wir LLMs für verschiedene Anwendungsfälle:

1. Erkennung von Falsch- und Desinformation:

  • Entwicklung und Anwendung von LLMs zur Erkennung von Fake News und Hassreden
  • Entwicklung und Nutzung von Wissensdatenbanken mit bekannten Fälschungen und Fakten
  • Nutzung von RAGs zur Unterstützung menschlicher Faktenüberprüfung
  • Factuality Analyse von generierten Inhalten zur Zusammenfassung oder Wissensanreicherung

2. Medizinische Daten und Datenschutz:

  • Entwicklung und Nutzung von LLMs zur Anonymisierung textbasierter medizinischer Aufzeichnungen für die Open-Source-Veröffentlichung
  • LLM-basierte Textanonymisierung von Textdaten für verschiedene sensible Anwendungsfälle zur Open-Source-Veröffentlichung

3. Erklärbare KI

  • Entwicklung von Erklärungen (wie post-hoc explanations, causal reasoning und Chain-of-Through-Prompting) für transparente KI Modelle
  • Human-centered XAI steht im Vordergrund, um Erklärungen zu entwickeln, die auf unterschiedlichen Abstraktions- und Detailebenen personalisiert für die NutzerInnenbedürfnisse angepasst werden können
  • Entwicklung von Methoden zur Überprüfung von Model Faithfulness, um zu validieren ob Erklärungen oder Vorhersagen den tatsächlichen internen Entscheidungsprozess genau widergeben

Darüber hinaus konzentriert sich die Arbeit der XplaiNLP-Gruppe nicht nur auf die Modellentwicklung, sondern auch auf die transparente und effektive Anwendung von LLMs für die oben genannten Anwendungsfälle.

  • Entwicklung und Validierung von IDSS zur Erkennung von Fake News
  • Implementierung und Validierung KI-basierter menschenzent Erklärungen zur Verbesserung der Transparenz und des Vertrauens in die Entscheidungen des Systems
  • Analyse der rechtlichenAnforderungen auf der Grundlage von AI Act, DSA, DA, und GDPR zur Einhaltung der rechtlichen Verpflichtungen beim IDSS-Design und der LLM-Implementierung