Im Bereich der Künstlichen Intelligenz (KI) sind Black-Box-Modelle gegenüber konventionellen Verfahren zwar überlegen, liefern allerdings keine Erklärung über das Zustandekommen ihrer Entscheidungen und Handlungsempfehlungen. Diese mangelnde Nachvollziehbarkeit führt zu Vorbehalten gegenüber dem Einsatz dieser Technologien. Darüber hinaus stellen sich Fragen bezüglich Rechtssicherheit, Ethik und Kundenorientierung der Anwendung. Hier setzt Explainable Artificial Intelligence (XAI) an, die dem Anwender Entscheidungen und Verhaltensweisen des Systems erklärt. Die aktuellen Forschungs- und Entwicklungstätigkeiten in der XAI-Domäne lassen jedoch relevante Aspekte außer Acht: Mit Ausnahme der Intuition des Forschers hinsichtlich der Qualität einer Erklärung werden interaktive, menschliche, organisatorische und ökonomische Aspekte oftmals nicht beachtet. Auch Eigenschaften von Erklärungen und Problemstellungen werden oftmals nicht berücksichtigt. Daher besteht ein großer Bedarf an einem Ansatz zur Entwicklung und Gestaltung von Erklärungsmodellen und entsprechenden Schnittstellen – dieser soll zukünftig als Leitfaden genutzt werden können.
Ziel des Projektvorhabens KOSMOX ist die Entwicklung eines ganzheitlichen Erklärungssystems, das Entscheidungen von KI-Systemen im Nachhinein verständlich darstellt. Es soll ein System geschaffen werden, das Ansätze regel- und simulationsbasierter Erklärungen vereint. Zusätzlich werden relevante Techniken aus dem Bereich der Komplexen Systeme eingesetzt. Außerdem soll eine Erklärungsschnittstelle konzipiert und realisiert werden, die auf Erkenntnissen aus den Kognitionswissenschaften basiert und eine interaktive Kommunikation zwischen den Anwendern und den eingesetzten KI-Techniken ermöglicht. In einem interdisziplinären Team aus Forschern und Industrieexperten werden zu diesem Zweck auch Herangehensweisen aus den Organisationswissenschaften, der Mensch-Computer-Interaktion sowie der Verhaltensökonomie herangezogen. Indem der Mehrwert der Zusammenarbeit von Mensch und Künstlicher Intelligenz herausgestellt wird, soll Vertrauen in KI-basierte Anwendungen aufgebaut werden. Im Fokus steht dabei, den Anwendern die Ergebnisse Maschineller Lernverfahren und anderer KI-Techniken für den Entscheidungsfindungsprozess transparent darzustellen und zu erklären. Bei der Bearbeitung des Vorhabens soll auf eine branchen- und bereichsübergreifende Lösung geachtet werden, um eine breite Anwendbarkeit zu gewährleisten.
Partners
Forschungspartner:
- Fraunhofer IOSB-INA
Anwendungspartner:
- ContiTech AG
Assoz. Partner:
- Lenze SE - Villeroy & Boch AG