Skip to main content Skip to main navigation

Transparente KI als Erfolgsfaktor für die EU

| Industrie 4.0 | Lernende Systeme | Mensch Maschine Interaktion | Sprache & Textverstehen

Gastbeitrag von Prof. Dr. Antonio Krüger, DFKI CEO, im Handelsblatt Journal anlässlich des Handelsblatt KI-Summit, der im Rahmen der KI-Biennale am 8. und 9. Juni 2022 in Essen stattgefunden hat.

© Handelsblatt KI-Summit / Willi Nothers
Prof. Dr. Antonio Krüger auf dem Handelsblatt KI Summit 2022 in Essen

Der Strom kommt aus der Steckdose, pflegte man in den 70ern zu sagen, um ironisch darauf hinzuweisen, dass die Verbraucherinnen und Verbraucher zwar wissen, wie man Elektrizität für die eigenen Zwecke nutzt, aber kaum Kenntnisse über die Stromproduktion haben (und sich deshalb zu wenig Sorgen über den Bau und den Betrieb von Atomkraftwerken machen würden). Das ist bei der sich intensivierenden Diskussion um wirtschaftliche und gesellschaftliche KI-Chancen und -Risiken eine interessante Analogie. Tatsächlich waren und sind die meisten Bürgerinnen und Bürger wenig informiert über die Funktionsweise von Kraftwerken, das Management des Lastausgleichs, das Know-how der Verteilnetzbetreiber, und sie kennen sich auch kaum mit KI-Rechenzentren oder datengetriebenen Deep Learning Verfahren aus. Klare Vorstellungen haben sie, welche Ziele die Stromnutzung zu erreichen hilft. Sie sind ausreichend erfahren, wenn es um Vorteile und Risiken geht, und weil es Gefahren gibt, kontrollieren junge Familien die Gefahrenquelle Steckdose mit einer Kindersicherung. Man muss nicht zwingend wissen, wie ein Kraftwerk arbeitet, um einen Fön anzuschließen. Man muss allerdings wissen, wie man mit einem Fön umzugehen hat, um die Wunschfrisur zu bekommen.

Transparenz schafft Werkzeugrealismus
Parallel zur gestiegenen Werkzeugexzellenz von KI-Technologien und Hand in Hand mit den Anwendungserfolgen in z.B. Gesundheit, Wissenschaft und Wirtschaft wächst die Bedeutung von KI-Werkzeugrealismus und das Verständnis von Leistungsspitzen und Leistungsgrenzen. Die individuelle Urteilsfähigkeit zur Abschätzung spezifischer Anwendungschancen ist abhängig von dem Grad der persönlichen Informiertheit, aber eben auch von der Verlässlichkeit der Leistungserbringung. Wir können uns nur dann auf ein zukünftiges Ergebnis einstellen, wenn wir selber die Erfolgsfaktoren benennen und den Weg zum Ziel beschreiben können. Dafür ist keine ingenieurwissenschaftliche Ausbildung notwendig, sondern nur anwendungssattes Allerweltswissen und eine Vorstellung von dem Ziel, das erreicht werden soll. Wer das Aktuelle nachvollziehen kann, kann das zukünftig Erwartbare ableiten. Das schafft Werkzeugvertrauen und fördert die Ergebnisqualität. Intransparenz verstellt den wissensbasierten Erfahrungsaufbau. Wenn wir in der EU Transparenz für KI-Systeme nicht nur fordern, sondern auch erreichen, wird Europa eine gesellschaftliche KI-Spaltung vermeiden können und gleichzeitig wird der europäische Markt von den dann ermöglichten attraktiven KI-Produkten wirtschaftlich extrem profitieren.

Human-in-the-Loop: Der Mensch in der Entscheidungskette
Die Analogie mit der Elektrizität funktioniert im Fall der KI oft nur in eine Richtung. Denn einerseits ist es auch beim praktischen Einsatz von KI-Anwendungen nicht notwendig, die verwendete Hardware oder die mathematischen Grundlagen von künstlichen neuronalen Netzen oder Theorembeweisern zu verstehen. Man muss auch keine Programmiererin sein, um Spracherkennung einzusetzen. Man muss urteilsfähig sein, ob das eingesetzte KI-Werkzeug belastbar tauglich für die Zielerreichung ist. Man schält einen Spargel nicht mit einem Löffel. Und man sollte von einem Spracherkenner nicht erwarten, dass die Maschine die Bedeutung der gesprochenen Worte versteht, die sie verschriftlicht hat. Das ist in der Tat bedauerlich und leider sind Systeme, die mit erstaunlicher Qualität das Diktat von Kurznachrichten ermöglichen, immer noch wenig lebensweltlich einsetzbar als digitale Assistenten, wenn die Anfrage über die Bestellung eines Produkts oder die Suche nach einem Song hinausgeht. Diese Systeme sind seit der ersten Einführung vor über 10 Jahren fortlaufend besser geworden, haben aber die in sie gesetzten Dialogerwartungen noch nicht einlösen können.

Der Anwendungsfall Sprache bzw. Spracherkennung ist orientierend, weil hier die KI-Anwendung letztendlich doch eingesetzt wird wie ein Fön: die Nutzenden wissen, was sie gesagt haben, und sie wissen deshalb auch, was verschriftlicht auf dem Bildschirm zu stehen hat. Sie können ihre Leistungserwartung formulieren und die Erkennungsqualität beurteilen. Dabei ist es den meisten nicht wichtig, wie das Smartphone diese Leistung erbracht hat. Muss es auch nicht. Das Ergebnis zählt. Vergleichbare Szenarien entstehen immer dann, wenn die Nutzenden die Ergebnisgüte aus eigenen Stücken selber beurteilen können. Und wenn sie die letzte Instanz sind, die die Ergebnisverwendung autorisieren - Human-in-the-Loop - der Mensch in der Entscheidungskette, der etwas freigeben oder ein Veto einlegen kann.

Das unterscheidet Spracherkenner in den Dimensionen Nachvollziehbarkeit und Verlässlichkeit prinzipiell von Systemen, die z.B. in einem selbstfahrenden Auto autonom auf Beschleunigung, Lenkung und Bremse einwirken. Die objektiv notwendige Echtzeitfähigkeit nimmt den Menschen aus der Entscheidungskette. Weil das Auto nicht auf eine Antwort warten kann, entscheidet es automatisch. Die Nutzenden müssen sich als Passagiere auf die Fahrtauglichkeit des digitalen Chauffeurs verlassen. Sie machen das sehenden Auges, aber ihr Vertrauen ist so blind, wie die Hoffnung der Zuggäste, dass die Lokomotivführenden konzentriert und kompetent sind und schon aus Eigennutz einen Unfall vermeiden möchten, dessen erstes Opfer sie in der Regel nun einmal selber sind. Aber eine Maschine hat keine Vorstellung vom menschlichen Konzept des Eigennutzes, agiert letztendlich mit leeren Begriffen, hat Zugriff auf technische Sensoren, aber keine inneren Sinne.

Regulierung hilft, Überregulierung schadet
Die EU-Kommission arbeitet an einer Gesetzgebung, dem AI Act, der Hochrisiko-KI-Anwendungen speziellen Zertifizierungsverfahren unterwirft. Das ist so lange eine wirklich gute Nachricht für Europa, als die notwendige Regulierung die Entwickelnden noch mehr zu Transparenz verpflichtet und so die Anwendenden vor Risiken beschützt. Wird erst zu einem europaweiten Problem, wenn die dann gültigen Gesetze den für Innovation notwendigen Spielraum über Gebühr einschränken. Das Letztere wäre ein reales Desaster für die europäische Wissensökonomie und das entstehende KI-Ökosystem. Die Rahmenbedingungen sollten die Erfindungsintensität für die Lösungen von morgen fördern und nicht an Problemen des heutigen Kenntnisstandes ersticken.

Die Lösungen von morgen werden mit viel tiefgreifenderen Transparenzforderungen konfrontiert sein. Insofern ist es eine solide Prognose, dass die Bedeutung für transparente KI und die Forderung danach zu einem kulturbildenden Erfolgsfaktor zählen wird, vergleichbar mit dem europäischen Datenschutz, der ambitioniert eingeführt wurde und mittlerweile tatsächlich viele Hoffnungen erfüllen konnte.

Gefordert sind alle
Die aktuellen Aufgaben sind vielschichtig.

  • Die Forschung muss noch energischer daran arbeiten, dass KI-Systeme ein garantiertes Leistungsniveau erreichen und dabei für die Nutzenden verständlich sind. Da hilft es natürlich, wenn das KI-Werkzeug deshalb gut erklärt werden kann, weil es auf eine erklärbare Weise zu dem Ergebnis gekommen ist. Explainability ist in mehreren Hinsichten notwendig und Gegenstand zahlreicher bei uns laufender Projekte.
  • Entwicklerinnen und Entwickler müssen die in sie gesetzten Erwartungen erfüllen und die KI-Systeme die entsprechenden Normen und Verlässlichkeitsgarantien nachvollziehbar einhalten. Das übergeordnete Ziel ist Trusted-AI in dem Sinn, dass KI-Systeme transparent und nachvollziehbar arbeiten, sich über die Leistung und die Leistungserbringung erklären, Anfragen der Nutzenden erschöpfend und situativ adäquat beantworten können und so vertrauenswirkend handeln.
  • Die Wirtschaft sollte nicht nur große Erwartungen schüren, sondern sinnvolle Kundeninformation und hohe Kundenzufriedenheit über den kurzfristigen und marketinggetriebenen Quartalserfolg stellen. Das bedeutet auch, dass man bei der Benennung von Produkten Wert legt auf Verstehbarkeit und die attraktive Funktion erst dann erwähnt, wenn das reife Produkt die geweckten Hoffnungen einlösen kann.
  • Aber auch die Anwendenden sind gefordert. Es stimmt, dass Mensch-Maschine-Interaktion deutlich intuitiver geworden ist. Aber bei den großen digitalen Innovationssprüngen, die wir in den vergangenen 15 Jahren erlebt haben, ist es für jedes Lebensalter ratsam, den Spieltrieb zu vitalisieren und eigene Erfahrungen mit der praktischen Verwendung von KI-Systemen zu erwerben. Die Produkt- und Beratungsangebote sind zahlreich, viele davon kosten kein Geld, nur ein wenig Zeit. Und oft sind die Ergebnisse und die neuen Perspektiven verblüffend gut.
  • Last but not least müssen die Gesetzgeber in dieser Phase extremer Innovationsgeschwindigkeit klug handeln. Sie sollten die zukünftigen Erfindungen für gegenwärtig bestehende Probleme nicht behindern. Sie sollten die Wissenschaft fordern mit klaren Zielkriterien und attraktiven Wettbewerben, mit einer europäischen Agenda, die auf Exzellenz, Gemeinschaft und Grenzüberschreitung setzt. Sie sollten dabei den Stand der Erkenntnis und die ambitionierten Aufgaben nicht aus den Augen verliert, realistisch sein beim Zeithorizont und den Boden bereiten, sodass die transparente KI zu einem europäischen Markenzeichen werden kann.

 

Link zum Handelsblatt KI-Summit 2022:
Handelsblatt Summit, AI Experience, 8. und 9. Juni 2022, Essen im Rahmen der KI Biennale
https://veranstaltungen.handelsblatt.com/kuenstliche-intelligenz/
 

 

Kontakt

Reinhard Karger M.A.
Unternehmenssprecher DFKI

Tel.: +49 681 85775 5253


Deutsches Forschungszentrum für Künstliche Intelligenz GmbH (DFKI)
Saarland Informatics Campus
Stuhlsatzenhausweg 3
66123 Saarbrücken
Deutschland