Skip to main content Skip to main navigation
© issaronow - stock.adobe.com

Forschungsgruppe Verantwortungsvolle KI und Maschinenethik (RAIME)

Die Forschungsgruppe Verantwortungsvolle KI und Maschinenethik (Responsible AI and Machine Ethics – RAIME) widmet sich den komplexen ethischen und allgemein normativen Herausforderungen, die sich bei der Entwicklung und dem Einsatz von KI-Systemen ergeben. Dabei gilt das Augenmerk insbesondere den vielfältigen, notwendigen Kompromissen in Hinsicht auf Zielkonflikte, sei es beispielsweise zwischen Fairness und Genauigkeit, Transparenz und Effizienz oder individuellem und kollektivem Nutzen. Die zentrale Forschungsfrage ist, wie diese Herausforderungen vor dem Hintergrund normativer oder moralischer Unsicherheit gemeistert werden können, also Mangels allgemein anerkannter Kriterien der Richtigkeit. Dafür sollen philosophisch informierte und zugleich handlungsorientierte, strukturierte Ansätze und Prozesse erarbeitet werden, die es unter Rückgriff auf praktische Vernunft und Argumentation erlauben, entsprechende Entscheidungen möglichst begründet und damit gerechtfertigt zu treffen.

RAIME widmet sich insbesondere der Rolle und dem Zusammenspiel von Anforderungen an KI-Entscheidungen hinsichtlich Transparenz, Erklärbarkeit und Begründbarkeit. Die Forschung innerhalb von RAIME konzentriert sich auf die Entwicklung formal fundierter, doch praxisnaher, anwendbarer Frameworks, die es sowohl KI-Systemen als auch Menschen ermöglichen, wohlbegründete Entscheidungen zu treffen, die neuen Informationen und sich verändernden Umständen flexibel und angemessen Rechnung tragen können. Der Rückgriff auf explizite Begründungen stellt dabei sicher, dass solche Entscheidungen nicht nur für Menschen nachvollziehbar bleiben, sondern auch von ihnen in Frage gestellt und somit verbessert werden können, was die Vertrauenswürdigkeit von KI-Systemen deutlich erhöht. Neben den Vorteilen, die sich aus diesem Ansatz für die verantwortungsvolle Entwicklung und Nutzung von KI-Systemen ergeben, widmet sich die Arbeit von RAIME auch der Übertragung dieses Ansatzes auf Entscheidungen, die von KI-Systemen getroffen werden und damit philosophischen sowie technischen Aspekten der Maschinenethik. Hier erforscht das Team insbesondere neuro-explizite Konzepte zur Sicherstellung moralisch akzeptablen Verhaltens von Maschinen, die prinzipienorientierte Top-Down-Ansätze mit Bottom-Up-Ansätzen auf der Basis maschinellen Lernens verbinden.

Die Herangehensweise von RAIME räumt dem wertebasierten und menschenzentrierten moralischen Denken Vorrang ein und dient der schrittweisen Verbesserung von Systemen im Einklang mit ethischen Normen basierend auf menschlichem Feedback. Der Mensch bleibt damit der ultimative Entscheider, die KI ergänzt sein Urteilsvermögen und ersetzt es nicht. Dieser Rahmen stärkt auch die verantwortliche Entscheidungsfindung im Prozess („humans in and on the loop“) und trägt dazu bei, Verantwortungslücken zu schließen und Fragen der Rechenschaftspflicht, Haftung und wirksamen menschlichen Aufsicht beim Einsatz von KI-Systemen in ethisch sensiblen Kontexten zu lösen.

 

Kevin Baum, Leiter RAIME-Forschungsgruppe

"Im komplexen Feld der KI-Ethik ist die 'richtige' Entscheidung oft schwer zu fassen. Doch durch das sorgfältige Abwägen von Gründen dafür und dagegen können wir Lösungen finden, die stärker mit unseren Werten übereinstimmen als andere, selbst angesichts tiefer moralischer Unsicherheit. RAIME widmet sich der Aufgabe, praktikable und vernünftige Ansätze für eine verantwortungsvolle Entwicklung und Nutzung von KI zu finden."

Kevin Baum, Leiter RAIME-Forschungsgruppe

Kontakt

Leitung:
Kevin Baum M.A. M.SC.

Tel.: +49 681 85775 5251

Sekretariat:
Tatjana Bungert

Tel.: +49 681 85775 5357

Deutsches Forschungszentrum für Künstliche Intelligenz GmbH (DFKI)
Gebäude D3 2
Stuhlsatzenhausweg 3
66123 Saarbrücken
Deutschland