Innovative KI-Verfahren sind von hoher Relevanz für die Wertschöpfung in verschiedenen Branchen und für Unternehmen unterschiedlicher Größe. Ganz gleich, ob wir neue KI-Technologien im Gesundheitswesen, in der Energieversorgung oder im Verkehrswesen einsetzen, mit der zunehmenden Verbreitung von KI wächst auch das Bewusstsein, dass diese Systeme vertrauenswürdig sein müssen, damit sie auch in missionskritischen Entscheidungen eingesetzt werden können. Doch die Schlussfolgerungen der Systeme sind teilweise schwer nachvollziehbar, die Datenbasis unbekannt und die Algorithmen intransparent. Für marktfähige Lösungen und vor dem Hintergrund der politischen Regulierung durch den EU AI-Act müssen belastbare Kriterien und Anforderungen für vertrauenswürdige KI entwickelt werden.
Unternehmen brauchen praktische Werkzeuge und Standards sowie Prüf- und Zertifizierungsverfahren, mit denen sie den technologischen Anforderungen an vertrauensvolle KI-Anwendungen gerecht werden können.
Anforderungen an vertrauenswürdige KI
Vertrauen ist vor allem dann erforderlich, wenn die Risiken zunehmen: Der europäische Ansatz für vertrauenswürdige KI unterscheidet verschiedene Stufen der Kritikalität von KI-Anwendungen. So müssen KI-Systeme, die innerhalb der Europäischen Union entwickelt oder eingesetzt werden, je nach Risikoeinstufung unterschiedliche Anforderungen erfüllen.
Um die Vertrauenswürdigkeit von KI-Systemen zu verbessern, sollten Aspekte wie Robustheit, algorithmische Fairness, Erklärbarkeit und Transparenz berücksichtigt werden. Darüber hinaus muss die Vertrauenswürdigkeit während des gesamten Lebenszyklus eines KI-Systems systematisch ermittelt und bewertet werden.
DFKI forscht zu Vertrauenswürdigkeit großer Sprachmodelle
Die verschiedenen Anforderungen an vertrauenswürdige KI lassen sich gut im Bereich der KI-basierten Sprachtechnologie verdeutlichen. Large Language Models (LLMs) haben ein disruptives Potenzial und sprachbasierte KI-Werkzeuge wie GPT-4 sind mittlerweile im privaten und öffentlichen Bereich allgegenwärtig. Oftmals erfüllen sie die Anforderungen an die Vertrauenswürdigkeit nur in geringem Maße, was ihre Einsetzbarkeit in Anwendungsszenarien mit hohem Sicherheitsbedarf (wie Medizin oder Rechtsprechung) stark einschränkt.
Das liegt daran, dass Parameter, Trainingsdaten, Trainingsmethoden und Inferenzeinstellungen oft nicht zugänglich sind. Diese und weitere offene Fragen im Bereich der Grundlagenforschung zur Vertrauenswürdigkeit großer Sprachmodelle werden derzeit am DFKI erforscht: Das DFKI-Speech and Language Technology Lab in Berlin erarbeitet verlässliche Evaluationskriterien für vertrauenswürdige KI-basierte Sprachtechnologie. Diese beziehen sich unter anderem auf Robustheit und Zuverlässigkeit und gehen beispielsweise der Frage nach, wie die Performanz von Sprachmodellen in spezifischen Domänen, Anwendungen oder auch über Sprachgrenzen hinweg gemessen werden kann. Auch im Hinblick auf Transparenz und Erklärbarkeit muss u.a. weiter erforscht werden, wie Wissen in großen Sprachmodellen lokalisiert und wie bestimmtes Modellverhalten einzelnen Modellkomponenten zugeordnet werden kann. Im Rahmen des Centre for European Research on Trusted AI (CERTAIN) untersuchen Forscherinnen und Forscher am DFKI derzeit mit Methoden der mechanistischen Interpretierbarkeit, ob LLMs komplexe Regeln lernen oder nur Fakten abrufen können.
Im Projekt OpenGPT-X entwickelt das DFKI verschiedene Ansätze, darunter auch Open-Science-Konzepte. Der offene Ansatz ist ein möglicher Weg zur Entwicklung einer sichereren und vertrauenswürdigeren KI und fördert zudem die Beteiligung aller an der Gestaltung der Zukunft dieser Technologie. In diesem Sinne verfolgt auch die vom DFKI ins Leben gerufene Forschungsinitiative Occiglot das Ziel einer digitalen Sprachgerechtigkeit in Europa. Hochwertige Grundlagenforschung und wirtschaftlich verwertbare technologische Anwendungen erfordern den direkten Zugang zu Sprachmodellen und zu den Daten, mit denen sie trainiert wurden. Zu diesem Zweck engagiert sich das akademische, gemeinnützige Forschungskollektiv Occiglot für eine offene, transparente und vollständig dokumentierte Wissenschaft und damit für die Entwicklung von Open Source LLMs.
Innovationshemmnisse durch Regulierung abbauen
Die Europäische Union arbeitet bereits an Standards, um den AI-Act als europäisches Recht umzusetzen und die Anwendung in der Praxis zu konkretisieren. Damit Unternehmen in Europa die Potenziale innovativer KI-basierter Sprachtechnologien voll ausschöpfen können, müssen aus den Konzepten für die technischen und ethischen Anforderungen an vertrauenswürdige Systeme überprüfbare Standards und belastbare Testverfahren abgeleitet werden: Langfristig könnten höhere Sicherheitsanforderungen zur breiteren Akzeptanz bei den Anwendern und mehr Klarheit bei Investitionsentscheidungen für Unternehmen führen. Im besten Fall sollten innovative Entwicklung, rechtliche Ausgestaltung und technische Umsetzung reibungslos synchronisiert werden. Dazu bedarf es eines lebendigen Dialogs zwischen Wirtschaft, Wissenschaft und Politik.
Leitartikel von Prof. Dr. Antonio Krüger aus der dfki.ai next 2/24
Reinhard Karger
Corporate Spokesman
Phone: +49 681 85775 5253
reinhard.karger@dfki.de
Deutsches Forschungszentrum für Künstliche Intelligenz GmbH (DFKI)
Stuhlsatzenhausweg 3
66123 Saarbrücken
Germany