Künstliche Intelligenz: Wie Maschinen das Denken der Menschen verändern

Die künstliche Intelligenz liefert Prognosen für fast alles. Damit stellt sie das Denken der Menschen auf den Kopf. Zu ein bisschen Klarheit verhilft der Philosoph Ludwig Wittgenstein. Ein Essay.

Raffael Schuppisser
Drucken
Teilen
Wie weit reicht das Denken der Maschine? (Bild: Shutterstock)

Wie weit reicht das Denken der Maschine? (Bild: Shutterstock)

Ein Computer kann Katzen- von Hundefotografien unterscheiden, englische Texte in deutsche übersetzen und ein Auto – zumindest zu Testzwecken – sicher durch den Verkehr steuern. All diesen Tätigkeiten liegt eine Gemeinsamkeit zugrunde: Sie basieren auf künstlicher Intelligenz (KI). Klar. Doch was macht sie genau? Grundsätzlich nicht mehr als Vorhersagen.

Nehmen wir das Beispiel der Katzenbilder. Es gibt keine praktische Definition für Katzen, die helfen würde, sie auf Bildern von Hunden und anderen Tieren zu unterscheiden. Eine KI kann also nicht eine eindeutige Regel erlernen, um Katzen zu erkennen, und folglich keine klare Ansage machen, ob sich auf einem Bild eine Katze befindet oder nicht, sondern bloss eine Vorhersage treffen. Je mehr Katzenbilder eine KI begutachtet hat, desto präziser wird sie.

Die Rede ist oft von maschinellem Lernen. Und ein Computer lernt tatsächlich wie ein Kind. Um ein Kleinkind zu lehren, was eine Katze ist, gibt man ihm auch nicht eine Definition zur Hand wie: Die Katzen (Felidae) sind eine Familie aus der Ordnung der Raubtiere (Carnivora) innerhalb der Überfamilie der Katzenartigen (Feloidea). Stattdessen zeigt man auf eine Katze und sagt «Katze». Irgendwann zeigt das Kind auf einen Hund und sagt «Katze». Eltern sagen dann: «Nein, das ist keine Katze, das ist ein Hund.» Einer KI legt man Tausende von Katzenbildern vor und Tausende Bilder ohne Katzen – je mehr, desto besser. Bei der Durchsicht lernt die KI, das Pixelmuster einer Katze von jenem einer Nicht-Katze zu unterscheiden.

Vom Computer zur Prognosen-Maschine

Sicher kann sich die KI aber nie sein. Sie wagt bloss eine Prognose (bei den heutigen Möglichkeiten geht diese aber nahezu gegen hundert Prozent). Das Gleiche gilt bei Übersetzungen, Spracherkennung und beim autonomen Fahren, wo die KI das Verhalten menschlicher Fahrer zu erkennen lernt und folglich fährt wie ein menschlicher Fahrer. Anfangs mögen die Vorhersagen noch ungenügend sein, doch die Fehlerquote wird immer kleiner und tendiert letztlich gegen null, sodass man irgendwann übereinkommt, die Autos ohne Fahrer auf die Strassen zu lassen.

Als «Prediction Machine» (Maschinen zur Vorhersage) bezeichnen deshalb die in Toronto lehrenden Wirtschaftswissenschafter Ajay Argawal, Joshua Gans und Avi Goldfarb in ihrem gleichnamigen Buch die künstliche Intelligenz. Lernende Softwares unterscheiden sich grundlegend von herkömmlichen, die keine Vorhersagen treffen, sondern bloss Anweisungen befolgen. Im Stil von: Wenn bis Ende Monat keine Zahlung von Kunde A eintrifft, verschicke Mahnbrief. Damit kann man ein Buchhaltungssystem automatisieren, aber keine selbstfahrenden Autos entwickeln – und auch keine Katzenbilder erkennen.

Der Unterschied ist qualitativer Art; wir haben es mit einem Paradigmenwechsel zu tun. Beim Aufkommen der Computertechnologie ging es darum, Aufgaben für die neuen Maschinen in Wenn-dann-Probleme umzuwandeln. (Bei einer elektrischen Steuerung: Wenn Sonnenlicht auf den Sensor fällt, dann aktiviere den Motor für die Rollläden.) Nun geht es darum, jegliche Art von Problemen in Vorhersage-Probleme umzuformulieren, erläutern die Autoren in ihrem Buch.

Die Grenzen der neuen Supermethode

Führen wir die Überlegungen weiter und nennen die Wende hin zur Vorhersage «predicitve turn». Philosophen mag dies an den «linguistic turn» des frühen 20. Jahrhunderts erinnern. Hier wie da werden Probleme verschiedener Art so umstrukturiert, dass sie mit einer neuen Supermethode gelöst werden können. So glaubten Sprachphilosophen, allen voran der junge Ludwig Wittgenstein (das Attribut ist wichtig, da sich der reifere Wittgenstein von der Methode distanzierte), dass alle philosophischen Probleme bloss sprachliche Probleme sind, dass man folglich nur die Bedeutung der Worte und der Logik der Sätze klären muss, um auch komplexe metaphysische Probleme zu lösen («Alle Philosophie ist Sprachkritik.»).

Heute geht es darum, Probleme jeglicher Art in «prediction problems» (Probleme der Vorhersage) umzuformulieren, um sie lösbar zu machen. Für die Lösung sind dann nicht die Sprachphilosophen gefragt, sondern die KI-Spezialisten.

Die Sache, so stellte sich beim «linguistic turn» heraus, ist bloss die, dass die Sprache keiner mathematischen Logik folgt und Worte keine klare Bedeutungen haben (siehe das Beispiel der Katze am Anfang). Wittgenstein verwarf in einer zweiten Schaffensphase deshalb das Vorhaben und entwickelte eine Sprachtheorie, die vom Gebrauch ausging. Worte erlernen wir im Gebrauch (siehe abermals das Beispiel der Katze). Sie lassen sich nur in den seltensten Fällen klar definieren.

Kurz: Alle philosophischen Probleme mit Sprachkritik zu lösen, ist zu verlockend einfach, um praktikabel sein zu können.

Von der Maschine arrangierte Hochzeiten

Wer alle Probleme mit einem einzigen Denkmuster lösen will, läuft Gefahr, die Welt der Methodik anzupassen und nicht die Methodik der Welt. Das gilt auch für die künstliche Intelligenz. Es ist verführerisch, die Probleme so umzuformulieren, dass sie zu «prediction problems» werden und folglich mit KI gelöst werden können.

Die neue Vorherrschaft der Vorhersage bedroht mindestens zwei andere Methoden der Lösungsfindung. Zum einen jene des kausalen Schlussfolgerns, zum anderen jene des instinktiven Entscheidens.

Zuerst zur Kausalität: Die Vorhersagen der KI beruhen bloss auf Korrelationen. Ein bestimmtes Muster an Pixeln korreliert mit dem Bild einer Katze. Ein bestimmtes Datenmuster von Facebook-Nutzern korreliert mit einem Trump-Wähler. Oder auch: Bestimmte Gesichtszüge korrelieren mit Gesichtszügen von Verbrechern. So wollen Forscher aus China einen Algorithmus entwickelt haben, der mit einer Wahrscheinlichkeit von 89,5 Prozent anhand einer Fotografie erkennt, ob jemand kriminell ist.

In vielen Fällen, gerade wenn es darum geht, einen Verbrecher zu verurteilen, kann eine Korrelation aber nie ausreichen; es braucht einen klaren Beweis. Es gibt Probleme, bei denen einzig eine kausale Schlussfolgerung als Lösung akzeptabel ist. Sie zu Vorhersage-Probleme umzustrukturieren, wäre fatal.

Nun zum Instinkt: Ob wir mit jemandem eine Beziehung eingehen, entscheiden wir nie bloss mit dem Verstand, sondern auch aus dem Bauch heraus. Wie wäre es, wenn wir daraus ein «prediction problem» machen würden, wenn wir also Daten über die Person sammelten und dann von einer KI berechnen liessen, ob wir zusammenpassen? Unser instinktives Entscheiden würde durch die Vorhersage einer Maschine ersetzt. Selbst wenn diese vielleicht auf lange Sicht gesehen zuverlässiger wäre, so würde sie doch einen Teil dessen zerstören, was den Reiz unseres Daseins ausmacht: sich seiner Leidenschaft hingeben, seinem Instinkt vertrauen und die inneren Regungen ernst nehmen.

Egal, wie zuverlässig die KI als Kupplerin ist: Eine von der Maschine berechnete Beziehung erinnert an eine arrangierte Ehe – und untergräbt damit unsere Autonomie, die durchaus nicht nur im Verstand, sondern auch im Instinkt liegt.

Während bei gewissen Problemen die maschinelle Vorhersage sich als eine zu ungenaue Methode erweist (etwa bei der Verurteilung von Verbrechern), erscheint sie bei anderen (etwa bei der Partnerwahl) als zu berechnend. Auch wenn einiges drauf hindeutet, dass die künstliche Intelligenz unsere Gesellschaft umkrempeln wird, so ist sie nicht die Lösung all unserer Probleme.