Als das 19. Jahrhundert anbrach, eroberten Dampfmaschinen Deutschlands Industrielandschaft im Sturm. Doch so beeindruckend diese technologische Neuerung auch war, brachte sie erhebliche Gefahren mit sich. Explosionen, die zu tragischen Todesfällen und Verletzungen führten, waren nicht selten. Jahrzehnte des Tüftelns basierten mehr auf Versuch und Irrtum als auf solider, wissenschaftlicher Grundlage. Diese wurde erst deutlich später mit der Thermodynamik nachgeliefert. Angesichts dieser Gefahren reagierte Deutschland proaktiv: Es wurde 1866 der „Dampfkessel-Überwachungs- und Revisions-Verein“ (DÜV) ins Leben gerufen – der Urvater unseres heutigen TÜV. Seine Mission? Die Sicherheit von Dampfkesseln durch die Einführung eines Sicherheitsventils, rigorose Tests und strenge Vorschriften radikal zu verbessern und damit ein breites Vertrauen in die neue Technologie zu erreichen, in der Gesellschaft, aber vor allem auch in der Industrie selbst.
Ähnlich verlief die Geschichte nach dem Aufkommen des Automobils. Schnell stiegen die Unfallzahlen alarmierend an. Erst durch sorgfältige Qualitätssicherung, etwa mittels Crash-Tests, und kluge Vorgaben wie die Anschnallgurt-Pflicht, kehrte Sicherheit auf die Straßen zurück. Obwohl auch diese Regulierungen anfangs auf starken Widerstand stießen, erkannte die deutsche Autoindustrie bald ihren Wert. Qualität und Sicherheit wurden nicht nur zum internationalen Markenzeichen deutscher Autos, sondern prägten auch das Bild der gesamten deutschen Wirtschaft im Ausland: „Qualität und Sicherheit – Made in Germany“ wurde zum Synonym für deutsche Innovationskraft und Verlässlichkeit.
Das aktuelle Zeitalter rasanter Fortschritte in der Künstlicher Intelligenz (KI) und ihrer schnellen Einführung spiegelt die historischen Herausforderungen früherer Technologie-Durchbrüche wider. Neben den bekannten und tragischen Unfällen mit autonomen Fahrzeugen wachsen auch andere, teils subtilere, Gefahren der KI-Technologie. Die Fähigkeit von KI, realistische und überzeugende Texte, Bilder und bald auch Videos zu generieren, ist beeindruckend – neben sehr überzeugenden Texten mit fast beliebigem (schädlichem) Inhalt, kann KI inzwischen realistische Bilder von Ereignissen erzeugen, die nie stattgefunden haben. Diese sogenannten „Deepfakes“ können leicht verwendet werden, um Desinformation zu verbreiten, und sie machen es selbst gut informierten Menschen schwerer, die Wahrheit von – oft gezielt verbreiteter – Fiktion zu unterscheiden. Es wird offensichtlich, dass wir uns mit der KI an einem ähnlichen Wendepunkt befinden wie einst bei Dampfmaschine und Auto: Um die vielfältigen Vorteile neuer Technologien zu nutzen und gleichzeitig ihre Risiken zu minimieren, müssen wir in bewährter Manier Qualität und Vertrauen auch im KI-Zeitalter in den Vordergrund stellen. Wir müssen „Made in Germany“ zu einem Gütesiegel für verantwortungsvolle KI-Technologieentwicklungen aus Deutschland machen. Wir brauchen eine breite Aufklärung über diese neuen Technologien und vor allem eine kluge Kombination aus Innovation und Regulierung.
Regulierung ist in dieser Phase unerlässlich. Im Gegensatz zu anderen technologischen Entwicklungen hat die KI das Potential, nicht nur einen einzelnen Sektor, sondern Wirtschaft und Gesellschaft insgesamt zu verändern. Wir müssen uns darüber verständigen, wo wir die Vorteile von KI nutzen wollen und wo wir die „explodierenden Dampfkessel“ von heute verhindern müssen.
Doch Regulierung allein reicht nicht aus. Entscheidend ist, dass Regulierung Hand in Hand mit Innovation und international führender Technologieentwicklung geht, die genau auf diese Regulierung zugeschnitten ist. So kann eine regulative Einschränkung auch zu einem Unique-Selling-Point und einem Exportschlager werden. Erste, vielversprechende Ansätze dazu gibt es schon, etwa mit den vertrauenswürdigen KI-Modellen des deutschen KI-Unternehmens Aleph Alpha in Heidelberg. Deutschland ist in einer einzigartigen Position, um diese Herausforderung anzunehmen: Mit einer auch international stark aufgestellten KI-Ausbildung und -Forschung, mit einer Industrie, die den Wert von Qualität und Zertifizierungen erkennt (und sogar einfordert), und mit einer Politik, der die Bedeutung dieser Revolution klar ist.
Allerdings sind die bisherigen Bemühungen nicht ausreichend. Statt wie bisher überall ein bisschen und wenig koordiniert zu fördern, bedarf es einer klaren Vision und Zieldefinition für die KI als einem zentralen Faktor für zukünftige Wertschöpfung in Deutschland, einer konzertierten Strategie und gut koordinierten Umsetzung von Politik, Wirtschaft und Forschung, die an einem Strang ziehen müssen. So könnte auch in der heutigen KI-Ära „Made in Germany“ für höchste Qualität, Vertrauen, verantwortungsbewusste Innovation und führende Technologieentwicklung stehen.
Ein zentrales Element ist dabei die Kooperation zwischen privatem und öffentlichem Sektor. Deutschland hat keine Tech-Giganten wie Google, Amazon oder Meta, die hier allein agieren können. Aber ähnlich zur hohen öffentlichen Förderung etwa des Humangenomprojekts in den Neunzigerjahren als ein koordiniertes Gegengewicht zu einer möglichen Privatisierung des menschlichen Erbguts durch einige private Unternehmen, können wir die zukünftige KI nicht wenigen großen privaten Konzernen in Amerika oder China überlassen. Die Politik muss hier gerade in Deutschland und Europa eine Schlüsselrolle einnehmen, indem sie den öffentlichen Sektor und zahlreiche privaten Unternehmen, die einzeln zu klein sind, aktiv zusammenbringt.
Dabei ist es essenziell, einige wenige Kristallisationspunkte dieser privaten und öffentlichen Kooperation zu schaffen: Zentrale Innovationszentren, in denen sich Industrie, Forschung und Start-ups aus ganz Deutschland regelmäßig treffen, um gemeinsam wirtschaftlich relevante, wissenschaftlich spannende sowie „weltbewegende“ Ziele zu realisieren. Diese Zentren wären weithin sichtbare Anziehungspunkte für die hier exzellent ausgebildeten, jungen Talente, die uns heute noch oft in Richtung USA verlassen. Wir brauchen wieder innovative und alleinstellende Themen in Deutschland, hinter denen sich das ganze Land versammeln kann.
Talente spielen dabei eine Schlüsselrolle. Es ist entscheidend, exzellente Forscher und Fachkräfte früh zu identifizieren, herzuholen, auszubilden und hier zu halten. Das passiert schon in der Spitzenforschung etwa durch das European Research Council (ERC) – allerdings in einem für den Bedarf in der KI viel zu kleinen Umfang. Es reicht indes nicht, nur die Spitzenforschung zu fördern. Ein großes Problem besteht im unzureichenden und langsamen Transfer der Forschungsergebnisse in die Industrie und den Mittelstand, dem Herzstück der deutschen Wirtschaft. Um diese Brücke zu schlagen, bedarf es einer breiten Basis in der Technologieentwicklung, kombiniert mit einem tiefen Verständnis für die spezifischen Bedürfnisse und Herausforderungen des Mittelstands in den verschiedenen Branchen. Hier müssen die Forscher die gleiche Sprache sprechen können wie die Praktiker. Und noch viel wichtiger: Das darf keine Einbahnstraße sein. Aus diesen Kooperationen und dem so identifizierten Bedarf der Wirtschaft ergeben sich ganz oft entscheidende, neue Impulse für die Forschung.
Der Fokus auf die Weiterentwicklung der KI in Deutschland sollte aber auch nicht allein auf finanziellen Ressourcen liegen. Natürlich sind (große) Investitionen in KI-Forschung und -Entwicklung unerlässlich, doch es ist noch viel wichtiger, eine gemeinsame Vision und Mission zu schaffen. Junge Talente, Forscher und Unternehmer sind nicht nur durch finanzielle Anreize motiviert. Viele suchen nach Möglichkeiten, echte, positive Veränderungen in der Welt herbeizuführen. Sie wollen an Projekten arbeiten, die Bedeutung haben und die eine bessere Zukunft gestalten. Das erfordert eine Kultur der Zusammenarbeit, des offenen Dialogs und des ständigen Lernens. Durch den Aufbau solcher Umgebungen können wir sicherstellen, dass Deutschland nicht nur auf dem Gebiet der KI innovativ bleibt, sondern auch den Mittelstand in die Lage versetzt, seine aktuellen Produkte und Prozesse mittels KI für den zukünftigen Weltmarkt fit zu machen.
„Trusted-AI“ ist ein solches zentrales Thema und ein wichtiger „Gamechanger“ für Deutschland und Europa. Ziel muss sein, die zuvor diskutierten traditionellen Werte und Qualitätskriterien von „Made in Germany“ in das KI-Zeitalter zu übertragen. Aber wie? Technisch heißt das, Methoden zu entwickeln und mit der Wirtschaft in konkrete Produkte umzusetzen, die verschiedene Arten von Garantien für KI-Systeme bereitstellen: Garantien darüber, was KI-Systeme tun dürfen und was nicht, aber auch Garantien über Fairness, Robustheit, Erklärbarkeit. Diese Garantien bilden die Grundlage, damit der Mittelstand sich auf die neuen Technologien verlassen kann und die Nutzer wissen, dass sie und ihre Daten sicher sind.
Deep Learning auf der Basis künstlicher neuronaler Netze ist extrem leistungsfähig, liefert aber nur mit einer gewissen Wahrscheinlichkeit korrekte Ergebnisse. Diese Tatsache wird umso kritischer, je weitreichender die Folgen einer solchen Entscheidung sind. Wenn ChatGPT Texte mit falschen Inhalten halluziniert, ist das problematisch. Wenn aber ein Roboter oder ein Auto halluzinieren, stehen direkt Menschenleben auf dem Spiel. Der aktuelle Trend dahin, die Modelle immer größer zu machen, löst diese grundlegende Problematik leider nicht. Sogenannte neuro-explizite KI-Modelle sind hier ein spannender Ansatz: Sie enthalten die Vorteile neuronaler Netze, kombinieren diese aber mit expliziten Modellen wie etwa Differentialgleichungen, die in der Wissenschaft schon lange benutzt werden, um die Welt akkurat zu beschreiben. Diese sind per Definition erklärbar, beschreiben kausale Zusammenhänge, sind modular und extrem kompakt – alles Eigenschaften, die neuronalen Netzen fehlen. Dieser Ansatz eröffnet die Chance, dass KI die Vorteile neuronaler Netze nutzt und gleichzeitig kausale Schlüsse ermöglicht. Dazu müssen aber noch eine Reihe offener Forschungsfragen beantwortet werden. Das ist ambitioniert, aber Menschen wollen Gewissheit haben, dass die KI-Systeme, die sie nutzen oder von denen sie betroffen sind, zuverlässig, sicher und ethisch einwandfrei handeln. Vertrauen in KI ist unerlässlich, wenn wir diese Technologie in kritischen Anwendungen wie der Medizin, dem Verkehr oder in der Finanzwelt einsetzen wollen.
Um diese Herausforderung anzunehmen, haben wir als Deutsches Forschungszentrum für Künstliche Intelligenz (DFKI) im Saarland kürzlich die Initiative CERTAIN („Center for European Research on Trusted AI“) ins Leben gerufen, aber es war von vorneherein klar, dass keine Forschungsorganisation – und auch kein Land – dies alleine wird stemmen können. Stattdessen setzt CERTAIN auf Kooperation entlang der gesamten Wertschöpfungskette, von der Grundlagenforschung über die angewandte Forschung, die Industrie, die Standardisierung und Zertifizierung, bis hin zum Engagement mit der Gesellschaft. Den initialen Kern bilden neben Forschungsgruppen des DFKI die beiden Saarbrücker Max-Planck-Institute für Informatik und für Software-Systeme und die Universität des Saarlandes. Dazu kommen wichtige Partner aus der Industrie wie ZF, Daimler Trucks oder die DFKI-Ausgründung Semvox, die inzwischen ein Teil von Cariad ist. Auch das Bundesamt für Sicherheit in der Informationstechnik (BSI) beteiligt sich mit seiner auf KI fokussierten Saarbrücker Zweigstelle. Wichtige Partner bilden etwa die französische Forschungseinrichtung INRIA, das große französische Trusted-AI-Projekt „Confiance.ai“, das Luxembourg Institute of Health (LIH), TNO in den Niederlanden und CIIRC in Prag. Und auch auf europäischer Ebene bestehen enge Verbindungen über den europäischen KI-Verband CLAIRE und die großen EU-Forschungsnetzwerke für KI.
Fast alle Partner arbeiten schon heute an Themen im Kontext von Trusted-AI. So entsteht rund um das Thema Trusted-AI aus dem Eigeninteresse aller Partner eine Graswurzelinitiative, auch ohne dedizierte Förderung der Partner. Aber natürlich kostet es Geld, die Forschung und Entwicklung hin zu „Trusted-AI“ voranzutreiben, vermutlich sehr viel Geld.
Generell sollte sich die KI-Community, aber auch die Politik in Europa ein Beispiel an den Physikern nehmen. Diese schaffen es immer wieder, gemeinsam große, gut koordinierte Forschungsprojekte in Milliardenhöhe aufzusetzen und zu finanzieren. CERN, das James-Webb-Teleskop und das Square Kilometre Array sind nur einige Beispiele hierfür. In der KI fehlen uns solche konzertierten Projekte. Dabei sollten sie angesichts der strategischen Bedeutung dieser Schlüsseltechnologie eigentlich selbstverständlich sein. Sie erfordern aber eine Art von offener Kooperation und einen Teamgeist, der bisher fehlt – sowohl in der Forschung, als auch in der Industrie und in der Politik. Immerhin: Kürzlich hat sogar der britische Premierminister Rishi Sunak die Idee eines „CERN für KI“ als Zentrum für KI-Kooperation öffentlich aufgegriffen.
Prof. Dr. Philipp Slusallek forscht und lehrt an der Universität des Saarlandes und ist wissenschaftlicher Direktor des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI).
Erschienen in der Frankfurter Allgemeine Zeitung, 25.09.2023
https://www.faz.net/aktuell/wirtschaft/unternehmen/ki-wie-gross-deutschlands-chancen-gegen-google-und-co-sind-19197382.html