Skip to main content Skip to main navigation

Maschinelle Intelligenz und das menschliche Monopol

| Data Management & Analysis | Lernende Systeme | Mensch Maschine Interaktion | Saarbrücken

Radiologen profitieren von Künstlicher Intelligenz als Befundungsunterstützung. Mitarbeitende in multilingualen, transnationalen Unternehmen freuen sich über die erreichte Qualität der maschinellen Textübersetzung. Aber es gibt keine Weisheit ex machina. Und man sollte auch nicht so tun als ob.

Ein Gastbeitrag von Reinhard Karger, Frankfurter Allgemeine Zeitung, 02.01.2024

Der Mensch erfindet seit Jahrtausenden Werkzeuge, die sein Leben erleichtern oder sein Überleben ermöglichen. Werkzeugautonomie oder die Idee der Mensch-Werkzeug-Kommunikation sind konzeptuell in der Antike angelegt. Schon Aristoteles thematisiert vor 2350 Jahren das selbsttätige Werkzeug, das „auf erhaltene Weisung, oder gar die Befehle im Voraus erratend, seine Verrichtung wahrnehmen könnte“. Automatisierung, im Sinne der Selbsttätigkeit, ist für Aristoteles mit einer egalitären, allerdings elitären gesellschaftspolitischen Utopie verbunden, denn „dann brauchten allerdings die Meister keine Gesellen und die Herren keine Knechte“. (Aristoteles, „Politik“, Buch 1, Kap. 4).

Werkzeuge erweitern menschliche Handlungsspielräume, erhöhen Freiheitsgrade bei der Ausführung, eröffnen effizientere Zielerreichungspfade. Die Arbeit wird erleichtert, aber nicht überwunden. Die Leistung ist benennbar, die Werkzeuge sind erkennbar. Mit Künstlicher Intelligenz fordert der Mensch sich und sein Selbstverständnis neu und prinzipiell heraus. Das ist kein Grund für Selbstverzwergung, aber Anlass genug, das Menschliche und das Selbstverständliche abermals und das maschinell Machbare kritisch in den Blick zu nehmen. Dabei sollten wir gleichzeitig bescheidener und anspruchsvoller sein. Es gibt zwar bedenkliche Nachrichten, aber überwiegend gute Perspektiven.

Künstliche intelligenz meint die Digitalisierung menschlicher Wissensfähigkeiten. Offensichtlicher wird der Spannungsbogen mit dem Begriff der „maschinellen Intelligenz“. Denn es geht erst sekundär um „natürlich“ versus „künstlich“, primär geht es um Mensch und Maschine. Zu den zahlreichen menschlichen Wissensfähigkeiten gehören das Lesen, Schreiben, Rechnen, die wir als Kulturtechniken auszeichnen. Natürlich das Sprechen, bei dem wir als vergesellschaftete Sprachsubjekte wissen, was wir durch Wortwahl, Sprechgeschwindigkeit, Satzmelodie, mit einer druckvollen oder zurückgenommen Betonung pragmatisch bewirken und persönlich erreichen können. Aber eigentlich geht es natürlich um das Denken und bei Künstlicher Intelligenz um die Fähigkeitsverstärkung für den Menschen.

Um das maschinelle Chancenportfolio axiomatisch eingrenzen zu können, müssen die prinzipiellen Unterschiede zu menschlichen Fähigkeiten benannt werden. Was kann der Mensch? Und was kann eine Maschine nicht können? Einen empirischen Anker als Antwortangebot auf die erste Frage liefert die evolutionäre Anthropologie, die sich mit den Unterschieden zwischen nichtmenschlichen Primaten und Homo sapiens beschäftigt. Arbeitshypothese ist, dass sich die artspezifische Differenz an der sogenannten Ontogenese des Individuums ablesen lässt. Obwohl sich Schimpansen-Neugeborene und menschliche Neugeborene in den ersten Lebenswochen ähnlich entwickeln, sieht der amerikanische Anthropologe Michael Tomasello (2002) die entscheidende sozial-kognitive Weichenstellung am Ende des ersten Lebensjahrs. Er nennt sie die „Neunmonatsrevolution“.

Ab dem neunten Monat beginnt der menschliche Säugling zusammen mit seinen engsten Bezugspersonen Teilnehmender und Akteur in Situationen, oder wie Tomasello es ausdrückt, in „Szenen gemeinsamer Aufmerksamkeit“ zu sein. Der neun Monate alte Mensch beginnt den Blick der Mutter oder des Vaters zu verfolgen und erfährt, dass sich eine Aktion auf ein Objekt richtet. in einer solchen „Szene gemeinsamer Aufmerksamkeit“ sind die Teilnehmenden triadisch auf das Gegenüber, auf sich selbst und gleichzeitig und gemeinsam auf dieselbe Person, denselben Gegenstand oder dasselbe Ereignis bezogen.

Der Säugling erlebt seine eigenen Absichten physiologisch unmittelbar, nimmt das Verhalten seiner Mutter oder seines Vaters wahr. Er versteht, dass die mimischen, gestischen oder lautlichen Äußerungen seiner engsten Bezugspersonen sich auf dasselbe Objekt beziehen. Und er verfügt über die erstaunliche Transferfähigkeit, zu schließen, dass die Äußerungen der anderen der eigenen Reaktion deshalb entsprechen, weil die Absichten, Wünsche und Motive ähnliche sind. Ausgehend von diesem vorsprachlichen Erleben beginnt ein Prozess, der Menschen, aber nicht Menschenaffen, ein Leben lang dazu befähigt, ihre Perspektiven wechselseitig übernehmen zu können. Für Tomasello ist diese Wegscheide konstitutiv: „Die Wichtigkeit von Szenen gemeinsamer Aufmerksamkeit kann nicht genug betont werden.“ (Tomasello, 2002, S. 132). Die Befähigung zur wechselseitigen Perspektivenübernahme ist die Voraussetzung für soziale Intelligenz und ein menschliches Monopol, das „sich bei keiner anderen Art auf diesem Planeten findet“ (Tomasello 2002, Habermas 2012). Das ist entscheidend. Aber dennoch der zweite Schritt vor dem ersten.

Der Mensch ist konfrontiert mit seiner Willkür und der eigenen Innenwelt, und mit der hochkomplexen natürlichen und gesellschaftlichen Umwelt. Er findet sich vor, wie der Philosoph und Mathematiker Edmund Husserl es im Jahr 1936 ausdrückte, in seiner „leiblichen Ichlichkeit“. Das tatsächliche Vorhandensein des Wunsches oder das wirkliche Erleben von Angst sind fundamental. Den erlebten, jeweils aktuellen subjektiven Empfindungsinhalt hatte der Mathematiker Charles S. Peirce schon im Jahr 1867 kategorial als „Erstheit“ ausgezeichnet und dafür den Begriff „Quale“ geprägt. Qualia sind die Materie der Empfindungsfähigkeit, sie werden durch die inneren oder äußeren Sinne vermittelt und vom Menschen körperlich erfahren. Auf Qualia gibt es einen subjektiven, aber keinen objektiven Zugriff – und auch wenn vielleicht manchmal ein falscher Eindruck erweckt werden könnte, Brain Computer Interfaces (BCI) können keine Gedanken lesen, sie können nur neuronale Aktivitätsregionen oder Aktivitätsmuster lokalisieren oder identifizieren.

Qualia sind die zweite notwendige Voraussetzung für soziale Intelligenz. Menschen können die Ich-Perspektive und damit die Wahrhaftigkeit eines persönlichen Erlebens in Anspruch nehmen. Sie können die Aktionen der anderen auf Absichten zurückführen, Ziele annehmen, hypothetische Pläne konstruieren und nächste Schritte prognostizieren, weil sie davon ausgehen können, dass die Wahrscheinlichkeit einer möglichen nächsten Aktion dem eigenen Handeln entsprechen würde, hätte man dasselbe Ziel. Angeleitet durch ihre Welterfahrung und orientiert durch die selbst erlebten Emotionen (Freude, Interesse, Überraschung, Furcht, Ärger, Trauer, Ekel) können sprachkompetente Menschen über das erwartbare Verhalten des oder der anderen Vorhersagen begründen, die laufend in anstehende Entscheidungen einfließen. Damit bewegen sich Menschen im Raum der sozial, kulturell und institutionell vernetzten Gründe, können Auskunft geben, Voraussetzungen erläutern, deskriptiv auf realweltliche Fakten verweisen, die wiederum ihrerseits als belastbare Basis für situationsadäquate Schlussfolgerungen dienen.

Die zweite Frage war, was können Maschinen nicht? Um die Dimension der Mensch-Maschine-Differenz konstruktiv aufzubauen und beginnend mit dem letzten Punkt: Maschinen können keine Qualia empfinden, sind ihnen aber auch nicht unterworfen. Es gibt per heute keinen Ansatz für eine erfolgversprechende psychophysische Reduktion. Konzepte wie Wunsch oder Mangel, Hoffnung, Angst, Lust oder Laune sind für Maschinen nicht nachvollziehbar, und deshalb sind sie auf sie nicht anwendbar. Maschinen können während der Verarbeitung einer Zeigegeste Blickverfolgung einsetzen, können wahrscheinliche Ziele identifizieren, sind aber nicht Teilnehmende oder Akteure in „Szenen gemeinsamer Aufmerksamkeit“. Sie haben keine Absichten oder Pläne, keine selbst gesetzten Ziele, keinen Willen, diese anzustreben, und kein Reenactment, um von der phänomenologischen Oberfläche auf die kausal verantwortlichen Motive zu schließen. Maschinen haben keine Ich-Perspektive und können keine Perspektive übernehmen. Sie haben keinen Zugang zum menschlichen Monopol der sozialen Intelligenz, sie können in der Auswahl von Handlungsalternativen eben nur eine gewisse Gewichtung erzeugen.

Visuelle und auditive Umweltreize werden rezeptiv sensorisch erfasst, mit Künstlicher Intelligenz ausgewertet und klassifiziert. Technische Sensoren wandeln einen Signalstrom in einen Datenstrom, Muster werden identifiziert, Information extrahiert, die Wahrscheinlichkeit einer folgenden Aktion festgestellt – aber Qualia werden nicht empfunden. Künstliche Intelligenzen können als selbstlernendes System bezeichnet werden, aber dieses technische Lernkonzept entspricht inhaltlich, formal, prozedural und resultativ nicht dem menschlichen Lernen, für das selbst erlebte Absicht, soziale Gemeinschaft und konzeptuelles Sprachverstehen notwendig sind. „In erster Linie ist es das Zusammenspiel von intentionalem Weltverhältnis, gegenseitiger Perspektivenübernahme, Verwendung einer propositional ausdifferenzierten Sprache, instrumentellem Handeln und Kooperation, welches die Lernprozesse einer vergesellschafteten Intelligenz ermöglicht“, schreibt der Philosoph Jürgen Habermas (2012, S. 52).

Die Bedeutung dieser Unterschiede kann nicht genug betont werden. Denn sie haben Folgen für die realistisch lebenspraktischen Erwartungen an die obere Schranke der prinzipiell erreichbaren maschinellen Leistungs- und Funktionsfähigkeiten. Entscheidend ist, dass Maschinen nicht Ziel von moralischen Ansprüchen sein können und dass es keine maschinelle Moralität geben kann, denn „Ethik ist aber Triebeinschränkung“, wie Sigmund Freud 1939 in seiner letzten Veröffentlichung „Der Mann Moses und die monotheistische Religion“ ausführte. Maschinen haben keine Triebe, sie brauchen auch keine Triebkontrolle. Und David Hume schrieb schon anno 1751: „Lösche alle herzlichen Gefühle und Vorurteile für die Tugend und allen Ekel und Abscheu gegen das Laster aus. Mache die Menschen vollkommen gleichgültig gegen diese Unterschiede, dann ist die Moral kein praktisches Studium mehr und hat keine Tendenz, unser Leben und unsere Handlungen zu regulieren.“ (Hume, 1751, S. 6). Ohne Emotionen ist Freude lediglich ein Wort.

Ein erfreulicher Mehrwert dieser Feststellungen ist die erkenntnisorientierte Emanzipation von interessengeleiteten Marketingversprechungen, die Befreiung von Hybris, von wortreicher und bildgewaltiger Dystopie. Die Empfindungsunfähigkeit von Maschinen bedeutet auch, dass sie nicht leiden können und folglich aus sich heraus keine Rechte haben, zum Beispiel auch nicht so etwas wie ein Recht auf Strom. Wir können sie weiter als Dinge oder Sachen ansehen, verwenden, recyceln oder upcyceln, in Bestandteile zerlegen, einschmelzen und dann nachnutzend verwerten. Wenn in der berechtigten Diskussion über Anwendungen von KI-Technologie ethische Fragen thematisiert werden, richtet sich das an Entwicklerinnen, Anbieter, Anwenderinnen und Regulierer – aber nicht an eine wie auch immer geartete moralische maschinelle Subroutine.

Die Funktion der menschlichen Moral ist die prosoziale Selbstregulation des Handelns, das getrieben wird von den egozentrischen Bedürfnissen, Wünschen und Zielen der individuellen Akteurin oder des Akteurs. Das Ausleben der Gier oder der möglichen Befriedigung wird begrenzt durch den verinnerlichten Widerstand der Gruppe. Die Pointe bei der menschlichen Moral liegt darin, dass die Interessensverallgemeinerung auf Basis der Selbst-anderer-Äquivalenz ein überaus taugliches Prüfwerkzeug ist, um zu erspüren, ob eine Handlung als gerecht, erwünscht oder auch als gesollt anzusehen ist (Tomasello, 2016, Kap. 3.2). Aber Maschinen empfinden nichts. Sie können keine Perspektiven übernehmen, haben keine eigenen Absichten, keine Ziele, leiden nie und sind deshalb keine möglichen Adressaten für eine beliebige Form moralischer Selbststeuerung.

Maschinen sollen aber Hand in Hand mit Menschen einsetzbar sein. Also muss sichergestellt werden, dass Aktionen gleichermaßen zielorientiert und angemessen sind. Da maschinelle Moralität wie beschrieben kein mögliches Steuerungskonzept ist, müssen Vorgaben, Regeln oder Gesetze, muss also hochaufgelöste positive Legalität die Lücke konstruktiv füllen. Überträgt man nun als Abkürzung den Rechtsgrundsatz der allgemeinen menschlichen Handlungsfreiheit auf Maschinen (alles ist erlaubt, was nicht verboten ist, vgl. Grundgesetz Art. 2 Abs. 1), verliert man den ganz unterschiedlichen Aktionsumfang von Mensch und Maschine aus dem Blick – man denke etwa an Kraft, Ausdauer oder Geschwindigkeit. Dieser ist jedoch entscheidend, damit ein singuläres Optimierungskriterium nicht zu einem gesellschaftlichen Desaster führt.

Um die Anwendungslegalität in Entscheidungszusammenhängen sicherzustellen, sind robuste KI-Systeme notwendig, die formale Erklärbarkeitsvoraussetzungen erfüllen, weil sie starke Garantien und Zertifikate ermöglichen. Damit haben wir das Auge eines wissenschaftlichen Hurrikans erreicht. Seit dem Beginn der KI-Forschung vor fast 70 Jahren gibt es einen lagerbildenden Paradigmenstreit um „symbolische“ versus „subsymbolische“ Verarbeitung. Gemeint ist, dass man Systeme baut, die entweder symbolisch orientiert Zeichen nach Regeln verarbeiten und die Bedeutung eines Ganzen aus der seiner Teile und der Art und Weise ihrer Verbindung ableiten. Diese Systeme können nachvollziehbare und eben falsifizierbare Ergebnisse liefern. Sie können als Instanzen von kognitiver Intelligenz angesehen werden. Und sie erlauben Schlussfolgerungen.

Entwickler können aber andererseits auch einen sogenannten subsymbolischen Ansatz verfolgen, der datengetrieben, massiv parallel und netzwerkbasiert vorgeht, ohne dass kognitive Zwischenschritte benennbar sind. Resultate sind nur möglicherweise korrekt, wobei sich die Ergebnisqualität evaluieren, aber die Ergebniserarbeitung nicht rekonstruieren lässt, das Ergebnis hinnehmen, aber nicht verifizieren lässt. Wenn heute von selbstlernenden Systemen, künstlichen neuronalen Netzen oder Deep Learning die Rede ist, geht es um diesen Ansatz.

Die beiden Forschungsrichtungen konkurrieren um wissenschaftliche Anerkennung, akademische Karrieren, gesellschaftliche Wertschätzung und finanzielle und personelle Ressourcen. Sie sind darüber hinaus motiviert von dem verständlichen Bedürfnis, recht zu haben, und von der faszinierenden Idee, sämtliche Anwendungen monistisch mit nur einem Ansatz zu realisieren.

Die symbolischen Systeme sind immer noch ungeschlagen in der Konstruktion von begrifflich konsistenten Wissensgraphen und dem logischen Schließen, sodass ein Ergebnis schrittweise und umfassend nachvollziehbar von ersten Prinzipien abgeleitet ist. Die subsymbolischen und aktuell sehr erfolgreichen künstlichen neuronalen Netze und großen Sprachmodelle (LLM) können für sich in Anspruch nehmen, KI-Lösungen ermöglicht zu haben, die etwa gesprochene Sprache besser erkennen, Texte besser übersetzen oder erzeugen und Objekte besser identifizieren können, als es mit regelbasierten Ansätzen jemals möglich gewesen ist. Aber: es existiert kein explizites Kontext- oder Symbolverstehen auf der Seite der subsymbolischen Lösungen.

Wie die maschinelle Textübersetzung zeigt, ist das auch nicht immer notwendig, um eine hochleistungsfähige sprachtechnologische Anwendung zu realisieren. Die Erfolge von Deep Learning sind atemberaubend, viele Anwendungen sind praxistauglich. Allerdings sind sie es eben nur dann, wenn ein möglicherweise korrektes Ergebnis ausreichend ist, und das bedingt oft, dass ein Mensch als „Human in the Loop“ diese Tauglichkeit feststellt, bevor es verwendet wird. Das heißt einerseits, dass die fehlende Verlässlichkeit den nichttrivialen Einsatz von autonomen Systemen verunmöglicht. Und dies bedeutet andererseits, dass (Ergebnis-)Erklärbarkeit und (Folgen-)Verantwortung auf den Menschen ausgelagert werden.

Für den menschheitlich umfassend sinnvollen und notwendigen Einsatz von maschineller Intelligenz müssen die technischen Systeme in den „Raum der Gründe“ einwandern, wie Habermas das ausdrücken würde. Der Raum der Gründe ist inhärent sprachlich und deshalb symbolisch, wie er ausführt: „Die entwickelte sprachliche Kommunikation kann als die Art von Kommunikation beschrieben werden, die über die bedeutungsidentische Verwendung von Sym- bolen eine gemeinsame objektive Welt im Horizont einer intersubjektiv geteilten Lebenswelt erschließt.“ (Habermas, 1999/2022, Bd. 1, S. 240).

Die symbolische Verarbeitung ist erfolgsnotwendig, wenn wir die Anwendungsklassen von KI-Lösungen nicht einschränken wollen und müssen auf Problemstellungen, in denen Erklärbarkeit als widerspruchsfrei argumentative Ableitung aus vorgelagerten Prinzipien eben keine Rolle spielt. Ein gesprochenes Wort ist dann korrekt erkannt, wenn es gesprochen wurde. Aber eine Schlussfolgerung ist nicht deshalb korrekt, weil die Auftrittswahrscheinlichkeit einer Wortfolge hoch ist.

Die Erklärbarkeit maschineller Empfehlungen und die Verlässlichkeit maschineller Entscheidungen haben mit der Bezeichnung „Trusted AI“ oder „vertrauenswürdiger KI“ ein neues Forschungsfeld eröffnet, dessen zukünftige Ergebnisse von maßgeblicher Bedeutung für den produktiven Einsatz von KI-Systemen sein werden. Obwohl tatsächliche soziale Intelligenz für Maschinen unerreichbar ist, könnte die Entwicklung von kognitiver maschineller Intelligenz gelingen. Zu hoffen ist, dass Trusted AI mit der notwendigen intellektuellen Ernsthaftigkeit, und in einer Kraftanstrengung von öffentlichen Forschungsmitteln und privatwirtschaftlichen Investitionen mit ausreichenden finanziellen und personellen Ressourcen ausgestattet wird.

Forschungsfragen sind: Wird man assertorische, also Zustimmung in Anspruch nehmende Urteile, und problematische, also nur auf Wahrscheinlichkeit beruhende Aussagen in einer Argumentationskette aufeinander verweisen lassen können, ohne die Gültigkeit einer Schlussfolgerung zu gefährden? Und wird es gelingen, integrierte KI-Systeme zu schaffen, die in einem hybriden Ansatz, der auch als neuro-symbolisch, neuro-explizit oder neuro-mechanistisch bezeichnet wird, die Vorteile der symbolischen deduktiven und der subsymbolischen neuronalen Ansätze zu vereinen? Und die Nachteile, die beide eben auch haben, zu überwinden? Der Erfolg ist missionskritisch, der wissenschaftliche Wille vorhanden, die erfolgreiche Zielerreichung ist offen.

Aber warum benötigen wir als Gesellschaft KI-Systeme, welche die Stärken von symbolischer und subsymbolischer Verarbeitung verbinden? Weil technische Lösungen, denen wir maschinelle Autonomie und Verlässlichkeit zusprechen können, objektiv notwendig sind, um die anstehenden technologischen, demographischen und kulturellen Transformationen zu gewinnen. Es ist nicht illusorisch, auf eine KI-Dividende zu hoffen, die entscheidende Lösungsbeiträge in den Bereichen Bildung, Energie, Logistik, Gesundheit, Mobilität, Recycling oder Ressourcennutzung liefert, eine nachhaltige Kreislaufwirtschaft ermöglicht und im Idealfall einen Beitrag leistet, den kulturellen Frieden zu stabilisieren und soziale Gerechtigkeit zu globalisieren.

Reinhard Karger ist theoretischer Linguist, seit 1993 Mitarbeiter, seit 2011 Unternehmenssprecher, seit 2022 Mitglied des Aufsichtsrats des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI).

Erschienen in der Frankfurter Allgemeine Zeitung, 02.01.2024

Online: https://www.faz.net/aktuell/wirtschaft/unternehmen/was-ki-nicht-kann-wo-die-maschine-zum-mensch-nicht-aufholen-wird-19419488.html

 

Quellen
Sigmund Freud, Der Mann Moses und die monotheistische Religion, London, 1939
David Hume, Eine Untersuchung über die Prinzipien der Moral, 1751, Meiner Verlag, 2003, S. 6
Jürgen Habermas, Nachmetaphysisches Denken II, Suhrkamp, 2012
Jürgen Habermas, Auch eine Geschichte der Philosophie, Suhrkamp, 2019, mit einem neuen Nachwort 2022
Edmund Husserl, Die Krisis der europäischen Wissenschaft, 1936, Meiner Verlag, Hamburg, 2012
Charles S. Peirce, On a New List of Categories, Proceedings of the American Academy of Arts and Sciences (582. Sitzung), 14.05.1867
Michael Tomasello, Die kulturelle Entwicklung des menschlichen Denkens, Suhrkamp, 2002
Michael Tomasello, Eine Naturgeschichte der menschlichen Moral, Suhrkamp, 2016