Skip to main content Skip to main navigation

Verantwortungsvolle KI in der Automobilbranche – Accenture und DFKI stellen gemeinsames Whitepaper vor

| Pressemitteilung | Mobilität | Autonome Systeme | Lernende Systeme | Agenten und Simulierte Realität | Neuro-mechanistische Modellierung | Saarbrücken

Ob bei der Erkennung von Krankheitsbildern, kreativen Anwendungen zur Text- oder Bildgenerierung oder beim autonomen Fahren – Deep Learning ist die KI-Technologie, die das letzte Jahrzehnt maßgeblich geprägt hat. Doch trotz vieler Fortschritte bleiben die Erfolge des maschinellen Lernens insbesondere beim autonomen Fahren hinter den Erwartungen zurück. Das gemeinsame Whitepaper „Verantwortungsvolle KI in der Automobilbranche – Techniken und Anwendungsfälle“ von Accenture und DFKI widmet sich der Suche nach den Gründen und schlägt neue technologische Ansätze vor.

© Scharfsinn86 - stock.adobe.com

Aktuelle KI-Modelle wie Deep Learning, so das Autorenteam, sind nicht vertrauenswürdig und verantwortungsvoll genug, um in solchen hochkritischen Anwendungsbereichen wie dem autonomen Fahren zuverlässig eingesetzt werden zu können. Sie leiden häufig unter Problemen in Bezug auf Erklärbarkeit, Robustheit und Generalisierbarkeit. Zudem benötigen sie große Mengen an Trainingsdaten und haben einen hohen Energiebedarf. Deep Learning-Modelle sind zwar leistungsfähig, aber nicht in der Lage, ihre Entscheidungen zu erklären, was es schwierig macht, ihren Ergebnissen in sicherheitskritischen Anwendungsbereichen zu vertrauen.

Als Lösung schlagen die Autorinnen und Autoren das Konzept der Neuroexpliziten KI vor, einen hybriden Ansatz, der die Stärken neuronaler Netze mit symbolischer Argumentation und expliziter Wissensrepräsentation kombiniert. Neuroexplizite KI zielt darauf ab, Modelle zu schaffen, die transparenter, interpretierbarer und robuster sind, indem domänenspezifisches Wissen und physikalische Gesetze in den KI-Entscheidungsprozess integriert werden. Neuroexplizite KI verwendet symbolische Argumente, um die getroffenen Entscheidungen zu erklären. Dadurch werden KI-Entscheidungen transparenter und das KI-System zuverlässiger.

Das Whitepaper diskutiert mehrere Anwendungsfälle, die das Potenzial der neuroexpliziten KI für das autonome Fahren demonstrieren. Die Autoren kommen zu dem Schluss, dass Deep Reinforcement Learning zusammen mit Online-Planungsmethoden die Sicherheit und Leistung autonomer Fahrzeuge in unsicheren Echtzeit-Umgebungen verbessern kann. Dieser Ansatz nutzt sowohl neuronale Netze als auch symbolische Modelle, um eine sicherere Entscheidungsfindung in dynamischen Situationen wie dem Ausweichen vor Fußgängern oder dem Navigieren durch eine komplexe Verkehrssituationen zu ermöglichen.

Ein weiterer Anwendungsbereich konzentriert sich auf die Verbesserung der Wahrnehmung autonomer Fahrsysteme durch die Einbeziehung von Wissen über visuelle Merkmale. Dabei nutzt das System hochrangige, symbolische Kenntnisse über die physikalischen Eigenschaften von Objekten, wie Lichtreflexionen, um die Genauigkeit der Objekterkennung zu erhöhen. Durch die Integration solcher symbolischen Informationen in die Wahrnehmungsmodelle wird die Technologie widerstandsfähiger gegenüber Störungen und kann komplexe visuelle Daten besser interpretieren, was zu einer höheren Zuverlässigkeit und Sicherheit führt.

Accenture und das DFKI betonen die Bedeutung verantwortungsvoller KI-Praktiken für das Erreichen der KI-Reife, d.h. die Entwicklung von KI-Systemen, die nicht nur technisch kompetent, sondern auch ethisch korrekt, fair und transparent funktionieren. Ihr Rahmenwerk für verantwortungsvolle KI hebt mehrere Schlüsselprinzipien hervor, darunter Fairness, Transparenz, Erklärbarkeit, Rechenschaftspflicht und Nachhaltigkeit. Diese Grundsätze sollen sicherstellen, dass KI-Technologien der Gesellschaft zugutekommen und gleichzeitig Risiken wie Voreingenommenheit, Diskriminierung und Verletzung der Privatsphäre minimiert werden. Fairness in der KI gewährleistet zum Beispiel, dass Algorithmen keine voreingenommenen oder diskriminierenden Ergebnisse liefern, während Erklärbarkeit es den Beteiligten ermöglicht, zu verstehen, wie KI-Systeme Entscheidungen treffen. In ähnlicher Weise stellt die Rechenschaftspflicht sicher, dass es klare Verantwortlichkeiten für KI-gesteuerte Ergebnisse gibt, und die Nachhaltigkeit konzentriert sich auf die Minimierung der Umweltauswirkungen von KI-Technologien.

Das Papier diskutiert auch die Herausforderungen der KI-Governance und die Notwendigkeit für Organisationen, bereichsübergreifende Governance-Strukturen einzuführen, die Transparenz und Rechenschaftspflicht bei der KI-Entwicklung fördern. Durch die Festlegung klarer Rollen, Richtlinien und Erwartungen können Unternehmen die mit KI verbundenen Risiken besser bewältigen und gleichzeitig das Vertrauen der Verbraucher und anderer Interessengruppen stärken.

Whitepaper

Kontakt:

Dr.-Ing. Christian Müller

Leiter des DFKI-Kompetenzzentrums Autonomes Fahren, DFKI

Pressekontakt:

Heike Leonhard, M.A.

Communications & Media, DFKI