Immer mehr Anwendungen in Industrie, Wirtschaft und Wissenschaft nutzen unterschiedliche KI-Techniken und KI-Workflows simultan, um komplexe Probleme zu lösen und komplexe Prozesse und Entscheidungen zu automatisieren und zu optimieren. Um Vertrauen in solche hybriden beziehungsweise gestaffelten KI-Systeme zu schaffen, muss das kombinierte Ergebnis des gesamten Systems dem menschlichen Nutzer erklärt werden. Obwohl einzelne KI-Algorithmen häufig unabhängig voneinander erklärbar sind, fehlt in der Regel diese Fähigkeit bei integrierten hybriden Systemen. Für vertrauenswürdige KI-Systeme ist die Erklärbarkeit jedoch einer der ethischen Aspekte, an die sich diese Systeme während ihrer Entwicklung, Umsetzung und Anwendung orientieren sollten (AI HLEG, 2019). Ein Beispiel für eine solche hybride KI ist die Planung von Maßnahmen zur Unkrautbekämpfung in aquatischen Umgebungen. Dieses Szenario wurde für die Entwicklung des Hybrid AI explainers (HAI-x) ausgewählt. Hierzu werden verschiedene KI-Methoden auf verschiedene Teilaufgaben angewandt, um die Planung der optimalen Durchführung von Mäharbeiten zu erstellen. Diese Art von Planungs- und Betriebsaufgaben treten häufig in den Umweltwissenschaften auf, wo mobile Feldoperationen so optimiert werden müssen, dass relevante Gebiete vollständig abgedeckt und gleichzeitig eingeschränkte Bereiche vermieden werden. Weitere Beispiele für diese Problemklasse sind die Kartierung von schädlichen Algenblüten, die Kartierung von Grundwassereinleitungen unter Wasser und die Pfadplanung für mobile Sensorplattformen mit unbemannten Luftfahrzeugen. Bei diesen Problemen müssen in der Regel sowohl die interessanten Gebiete als auch die zu meidenden Gebiete, d. h. die Sperrgebiete, festgelegt werden. Beide können sich im Laufe der Zeit ändern und müssen daher kontinuierlich aktualisiert werden. Für praktische Anwendungen, wie im Beispiel der Unkrautbekämpfung, benötigen menschliche Entscheidungsträger nicht nur einen optimalen Plan, sondern auch eine Erklärung des Plans und der zugrunde liegenden maschinell erstellten Modelle, um Vertrauen in diese Planung zu schaffen. Daher wird in dem vorgeschlagenen Projekt HAI-x entwickelt, um Licht in die "Black Box" hybrider KI-Systeme zu bringen.
Das System wird auf zwei Ebenen entwickelt:
- In einem laborbasierten Szenario, um Sensoren, Algorithmen und Designkonzepte schnell testen zu können, und
- auf einem vom Bootshersteller BERKY GmbH zur Verfügung gestellten Fahrzeug für Datenerfassung, Feldtests und Evaluierung.
Obwohl die Entwicklung an einem konkreten Beispiel stattfindet, soll HAI-x eine Technologie sein, die auf andere hybride KI-Systeme in ähnlichen Szenarien übertragbar ist. Mögliche Anwendungsbereiche sind zum Beispiel die Gewässer- und Wasserstraßenunterhaltung, die Einsatzplanung und die Einsatzlogistik, etwa bei der Abfallbeseitigung.
Publikationen:
- El-Mihoub, T.A., El Gadi, H., Nolle, L., Stahl, F.: On object detection and explain- ability with sonar imagery. In: 2024 IEEE 2nd International Maghreb Meeting of the Conference on Sciences and Techniques of Automatic Control and Computer Engineering (MI-STA) (2024)
- Nolle, Lars, Frederic Stahl, and Tarek El-Mihoub. "On Explanations for Hybrid Artificial Intelligence." International Conference on Innovative Techniques and Applications of Artificial Intelligence. Cham: Springer Nature Switzerland, 2023.
Partner
BERKY GmbH (Haren, Germany), Stadt Hannover (Germany)