Künstliche Intelligenz als gesellschaftliche Herausforderung

Von Prof. Dr. phil. habil. Karsten Weber

Der KI-Hype

Wenn ich mir die Gehälter anschaue, die im IT-Bereich zu erzielen sind, bedauere ich manchmal, diesen Karrierepfad kurz vor der Jahrtausendwende verlassen und mein Glück als Philosoph gesucht zu haben. Dass dies eine potenziell gefährliche Sache werden könnte, war mir zwar bewusst, aber nicht, wie beschwerlich der Weg tatsächlich sein würde. Noch öfter jedoch erlebe ich ein Déjà-vu, wenn ich morgens online Zeitungsartikel über Künstliche Intelligenz lese. Diese Texte zeichnen sich allzu oft durch zwei Eigenschaften aus:

Zum einen wiederholt sich eine Debatte, die schon in den späten1990er Jahren alles andere als neu war, und zum anderen wird diese Debatte oft auf einem erschreckend niedrigen Niveau, nicht nur in Bezug auf begriffliche Präzision und Hintergrundwissen, geführt.

Der (publizistische) Hype um KI wird wieder abflauen – dies ist in der Vergangenheit schon mehrfach passiert. Die Systeme aber werden bleiben und die dadurch aufgeworfenen Fragen, die weit über das hinausgehen, was hier angesprochen werden kann. Daher wäre eine ernsthafte und nicht auf Effekt heischende öffentliche Debatte über autonome Fahrzeuge, aber auch autonome Waffen, Predictive Policing, Social Scoring und vieles andere mehr dringend vonnöten. Insbesondere die Beantwortung der Frage, wessen moralische Überzeugungen in die Gestaltung von KI-Systemen einfließen sollen, darf nicht Unternehmen allein überlassen werden – wir als Stakeholder sollten dabei mehr als ein Wörtchen mitzureden haben.

Die üblichen Verdächtigen

In den Massenmedien mag es notwendig erscheinen, die komplexe Thematik der moralischen Konsequenzen von KI-Systemen auf das Trolley-Problem zu reduzieren. Doch abgesehen davon, dass die Ingenieure ihre Arbeit nicht getan hätten, wenn ein autonomes Fahrzeug jemals vor dem Dilemma „Wer soll überfahren werden, wenn das Auto nicht rechtzeitig bremsen kann?“ stünde, wird die Frage falsch gestellt und in aller Regel falsch oder zumindest widersprüchlich beantwortet. Worum geht es also? Ein autonomes Fahrzeug gerät in eine Situation, in der es nicht mehr rechtzeitig stoppen kann und zwei (manchmal auch drei) Optionen zur Reaktion gegeben sind: 1. Das Auto überfährt eine junge Frau mit Kind. 2. Es überfährt einen sehr alten Mann. In jedem Fall sterben die Überfahrenen. Die dritte Option taucht nicht immer auf: 3. Das Auto fährt gegen ein Hindernis und tötet dabei alle Fahrzeuginsassen.

Begriffliche Fehler und Widersprüche

Käme ein autonomes Fahrzeug in diese Situation, dann wäre schon im Vorfeld viel schiefgegangen, denn offensichtlich handelt es sich um eine unübersichtliche Gemengelage. Das Fahrzeug hätte daher eine Geschwindigkeit wählen müssen, die unter allen Umständen ein rechtzeitiges Anhalten garantierte. Weiterhin wird unterstellt, dass das Fahrzeug nicht in der Lage wäre, diese Situation frühzeitig zu erkennen. Doch autonomes Fahren wird erst möglich sein, wenn Fahrzeuge untereinander und mit in der Umgebung verteilten Sensoren massiv vernetzt sind, was den Mangel an notwendigen Informationen unwahrscheinlich werden lässt. Schließlich, und aus philosophischer Sicht ist dies der wichtigste Punkt, wird oft davon gesprochen, dass das Fahrzeug eine Entscheidung über Leben und Tod träfe. Doch zu entscheiden setzt zahlreiche kognitive Fähigkeiten voraus, die KI-Systeme, zumindest zurzeit, definitiv nicht besitzen. Daher können Maschinen auch nichts entscheiden; sie arbeiten einen Algorithmus ab. Trotzdem wird aus dem falschen Verständnis bezüglich des Entscheidens nicht selten der Schluss gezogen, dass es einer Maschinenethik bedürfe, anhand derer KI-Systeme solche Entscheidungen treffen sollen.

Auch dieser Schluss ist nicht haltbar. Ethik ist die Wissenschaft von der Moral; wer Ethik betreibt, denkt beispielsweise systematisch darüber nach, wie sich gegebene moralische Normen begründen ließen. Eine Maschinenethik impliziert daher Maschinen, die darüber nachdenken, ob die ihnen einprogrammierten moralischen Normen begründbar sind oder verworfen werden müssen. Doch wir wollen sicherlich keine autonomen Fahrzeuge oder andere KI-Systeme, die moralische Normen infrage stellen; wir wollen Maschinen, die unsere Vorgaben befolgen. In manchen Zeitungsartikeln wird dies tatsächlich bedacht und deshalb davon gesprochen, dass jene, die solche Systeme bauen, diese Entscheidungen anhand von ethischen Überlegungen vorprogrammieren müssten. Das aber wiederum stellt das ganze Konzept eines autonomen Fahrzeugs infrage.

Lernen aus der Vergangenheit

Alles in allem lässt die Debatte um die moralischen Konsequenzen von KI-Systemen also schon im Zusammenhang mit autonomen Fahrzeugen zu wünschen übrig, da Begriffe und Konzepte ungenau und falsch verwendet werden. Das ist jedoch äußerst bedenklich, denn die Konsequenzen des Einsatzes von KI-Systemen in vermutlich allen Lebensbereichen wird jede und jeden von uns unmittelbar betreffen. Es wäre daher dringend zu wünschen, wenn in der öffentlichen Auseinandersetzung eine wissenschaftliche Debatte zur Kenntnis genommen werden würde, die bereits seit den 1950er Jahren anhält. Vor mehr als 40 Jahren erschien Joseph Weizenbaums Buch „Die Macht der Computer und die Ohnmacht der Vernunft“, das 1977 in deutscher Sprache erschien. Man könnte trefflich darüber streiten, ob Weizenbaum nicht in vielen seinen Äußerungen über das Ziel hinausschoss, doch in großen Teilen bleibt seine Analyse auch heute noch aktuell – ebenso wie die wissenschaftliche Debatte, die mit seinem Buch Fahrt aufnahm.

Was sich aus dieser Diskussion lernen ließe, ist insbesondere dies:

Sowohl in Bezug auf die Hoffnungen als auch auf die Ängste, die KI-Systeme wecken, sollten wir solche Systeme nicht ohne Not vermenschlichen.

Was wichtig wäre

Unsere Alltagssprache ist nicht geeignet, technische Systeme adäquat zu beschreiben. Die leichtfertige Rede von „autonomen“ Maschinen, die „entscheiden“ – ganz zu schweigen von „moralischen Maschinen“ –, unterstellt das Vorliegen von Eigenschaften und Fähigkeiten, die extrem voraussetzungsreich sind. Begrifflich arbeitet sich die Philosophie seit Jahrhunderten an damit verbundenen Fragen ab; die empirisch ausgerichteten Neuro- und Kognitionswissenschaften stellen viele vermeintliche Gewissheiten infrage, aber können beileibe keine klare Antwort darauf geben, was Denken, Bewusstsein oder auch Intelligenz eigentlich ausmacht, Informatik und KI-Wissenschaften wiederum lernen zunehmend, wie schwierig es ist, verlässliche KI-Systeme zu bauen. PR-Stunts wie die Verleihung der saudi-arabischen Staatsbürgerschaft an einen Roboter namens „Sophia“ oder das autonome Fahrzeug, das über Leben und Tod entscheidet, mögen journalistisch leicht zu verwerten sein. Doch die lang andauernde wissenschaftliche Debatte über die gesellschaftlichen Konsequenzen des breiten Einsatzes von KI-Systemen müsste eigentlich lehren, dass viel grundsätzlichere Fragen zu stellen wären: Warum beispielsweise ist die Bereitschaft, wichtige Entscheidungen an Technik zu delegieren, so groß? Dahinter könnte sich ein grundlegendes Misstrauen gegenüber überkommenen Entscheidungsstrukturen und -instanzen verbergen, was unter anderem weitreichende politische Legitimationsfragen aufwürfe. Denkbar wäre auch, dass viele Menschen KI-Systemen eine größere Objektivität und Neutralität unterstellen und darauf hoffen, dass deren „Entscheidungen“ (in dicken Anführungszeichen) fairer als jene von Menschen sind. Möglicherweise fühlen sich Menschen aber auch stärker und sicherer, wenn sie KI-Systeme nutzen – das wäre dann eine Form des technisch gestützten Empowerments, das aber meist nur subjektiv gegeben wäre, da KI-Systeme in der Regel gerade nicht zur Stärkung individueller Handlungsmöglichkeiten genutzt werden.

Mehr zum Thema: Manche der hier nur angeschnittenen Themen werden von Karsten Weber in einem Blog-Beitrag behandelt. Dem Trolley-Problem widmet sich Michael Sandel in einer auf YouTube zu findenden Vortragsreihe. Ausführlicher findet sich das hier Gesagte in dem Beitrag von Karsten Weber und Thomas Zoglauer: Maschinenethik und Technikethik. In: Oliver Bendel (Hrsg.): Handbuch Maschinenethik. Berlin: Springer 2018.

Sie haben Interesse am vollständigen Magazin?

Die gedruckte Version der "Blickwinkel" schicken wir Ihnen gerne zu.

Bitte senden Sie uns unter Nennung Ihres Namens sowie Ihrer Anschrift eine E-Mail an ki@adesso.ch