Skip to main content Skip to main navigation

Projekt zur Bewertung von KI im Medienbereich gestartet – Förderung durch die Staatskanzlei des Saarlandes

| Wissen & Business Intelligence | Data Management & Analysis | Lernende Systeme | Sprache & Textverstehen | Kognitive Assistenzsysteme | Saarbrücken

Welche Auswirkungen hat Künstliche Intelligenz auf die Meinungsbildung in unserer Demokratie? Dieser Frage geht ein interdisziplinäres Forscherteam des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) und der Landesmedienanstalt Saarland (LMS) nach. Das gemeinsame Projekt mit dem Namen "PABeLA" fördert die Staatskanzlei des Saarlandes mit 200.000 Euro.

„PABeLA“ steht für „Prüflabor zur automatisierten Bewertung LLM-basierter KI-Systeme und deren Auswirkungen auf Journalismus und Meinungsbildung“. Das Projekt befasst sich mit großen Sprachmodellen oder „LLMs": KI-basierte Dienste wie Chat-GPT und Google Gemini, die in einem Dialog mit den Nutzerinnen und Nutzern stehen. Aufgrund der Komplexität und Dynamik dieser selbstlernenden Systeme ist es kaum möglich, ihre Funktionsweise im Detail nachzuvollziehen. „PABeLA“ soll eine Art Prüfstand für die systematische Auswertung der Antworten KI-basierter Dienste entwickeln.

Die Ministerpräsidentin des Saarlandes, Anke Rehlinger: „Im Saarland findet weltweite Spitzenforschung auf dem Gebiet der Künstlichen Intelligenz statt. Das Forschungsprojekt soll wichtige Erkenntnisse liefern, welche Auswirkungen die neuen Dienste auf unsere Medienvielfalt haben. Das ist auch gesellschaftlich ein wichtiges Themenfeld, zu dem wir noch viel zu wenig wissen.“

Dazu Prof. Dr. Antonio Krüger, DFKI-CEO und Leiter des Forschungsbereichs Kognitive Assistenzsysteme: „Wir planen, den jeweiligen KI-Dienst mit gezielten Anfragen zu testen, indem wir ihn in automatisierten ‚Gesprächen‘ mit einer Reihe von Themen oder Meinungen konfrontieren. Eine Herausforderung besteht darin, einen repräsentativen Testdatensatz und ein Verfahren zur systematischen Auswertung der Ergebnisse anhand zuvor entwickelter Metriken aufzubauen. Dabei werden ‚traditionelle‘ maschinelle Lernverfahren zur semantischen Textanalyse, aber voraussichtlich auch LLM-basierte Verfahren zur Bewertung bestimmter Kriterien zum Einsatz kommen.“

Ruth Meyer, Direktorin der LMS: „Demokratische Gesellschaften leben von der Pluralität und dem Aushandeln von Meinungen. Daher stellen potentiell vielfaltsverengende Technologien eine konkrete Gefahr für unsere Medien- und Meinungsvielfalt dar. Der Einsatz von KI darf das medienrechtlich übergeordnete Ziel der Vielfaltssicherung nicht beeinträchtigen. Es geht darum, dass Meinungen, Perspektiven und Informationen in ihrer Breite und Unterschiedlichkeit sichtbar und nicht etwa eingeengt oder verfälscht werden. Um dies trotz erheblich wachsender technologischer Einflüsse bestmöglich nachvollziehen und absichern zu können, setzen wir auf die Ergebnisse aus diesem Forschungsprojekt.“

Das Forschungsprojekt läuft bis Ende 2025. Die Ergebnisse sollen in der Praxis der Medienregulierung nutzbar sein. Das Saarland hatte im vergangenen Jahr als erstes Bundesland verbindliche Regeln für den Einsatz von KI im journalistischen Bereich in sein Mediengesetz aufgenommen.

 

Kontakt:

Dr.-Ing. Michael Feld

Forschungsbereich Kognitive Assistenzsysteme , DFKI