Künstliche Intelligenz übernimmt immer mehr Kontrolle über unser Leben – Höchste Zeit, dass Ethiker den Maschinen Moral programmieren
Essay

Künstliche Intelligenz übernimmt immer mehr Kontrolle über unser Leben – Höchste Zeit, dass Ethiker den Maschinen Moral programmieren

Video: Getty

Selbstfahrende Autos, Operationsroboter und automatische Waffensysteme – Künstliche Intelligenz entscheidet heute selbstständig, welche Aktion sie ausführt. Das birgt grosse Gefahren. Ethiker wollen den Robotern deshalb ein Gewissen verpassen. Doch geht das überhaupt?

Christoph Bopp
Drucken
Teilen

Warum fallen einem nur leicht schurkische Beispiele ein? Man versucht, die Situation zu umschreiben, in die sich der Mensch manövrierte, als er künstliche Systeme baute, die intelligent sein sollten. Hätte Napoleon Russland angegriffen, wenn ihm klar gewesen wäre, wie gross das Land ist? Wäre Kolumbus in See gestochen, wenn ihm bewusst gewesen wäre, wie weit Indien wirklich entfernt liegt? Ein Kontinent kam ihm in die Quere, bevor ihn die Unendlichkeit verschluckte.

Vielleicht liegt es an dieser exzentrischen Lage des Menschen in der Natur. Er fühlt, dass er sich weit vorgewagt hat, zu weit. Gleichzeitig ist ihm die intelligente Maschine, sein eigenes technisches Produkt, zum Konkurrenten geworden. Wo er doch glaubte, einzigartig zu sein.

Einzigartig wurde er, als er sich vom Gängelband der Natur löste, auf spontanes Räsonnieren setzte anstatt aufs sichere und bewährte Programm.

«Ihr werdet sein wie Gott und zwischen Gut und Böse unterscheiden können.»

Mephistopheles schreibt es dem Schüler in «Faust I» ins Stammbuch. In der Fachliteratur wird der Zusammenhang zwischen Intelligenz und Moral nicht so eng gesehen. Es hat sich halt so ergeben. Die intelligenten Maschinen hätten sich mittlerweile in Bereiche hinein entwickelt, dass man ihnen langsam Moral eingeben müsse, damit sie nicht Schaden anrichten.

Die künstliche Intelligenz (KI) schreit gewissermassen nach ethischer Einbettung. Und so sind neue Bindestrich-Ethiken entstanden (manchmal auch ohne Bindestrich). Maschinen-Ethik befasst sich mit der Frage, ob es moralisch richtig ist, Maschinen mit moralischen Fähigkeiten auszustatten und wie solche Maschinen beschaffen sein müssten, damit sie explizit moralische Urteile fällen könnten. Und die Roboterethik beschäftigt sich mit den moralischen Problemen, die bei der Entwicklung und der Produktion von Robotern entstehen.

Stochern im Nebel – egal, von wo gestochert wird

Alle Bindestriche helfen nicht beim grundsätzlichen Problem, dass wir weder genau wissen, was Intelligenz ist, noch wie es sich mit der Moral verhält. Und es kommt hinzu, dass es sich bei beiden um Phänomene handelt, die unser Selbstbild entscheidend prägen. Wir sind intelligente und moralische Wesen – und unterscheiden uns genau in dieser Beziehung vom Rest des Lebens auf dem Planeten.

Das zeigt sich deutlich in den Leerstellen. Wir kommen nicht umhin, uns nur uns selbst als «full ethical agent» (vollumfänglich moralischer Akteur) vorstellen zu können. So nennt der Philosoph James H. Moor den vierten (und obersten) Typ moralischer Akteure.

Gleichzeitig müssen die Informatiker einräumen, dass wir von einer wirklich «starken KI» weit entfernt sind. «Schwache KI» nennt man die Programme, die uns in ihren Bereichen trotzdem haushoch überlegen sind. Nicht nur die Schach- und Go-Programme, sondern auch Gestalt-Erkennungswerkzeuge, welche etwa Tumore auf Röntgenbildern zuverlässiger und vor allem schneller identifizieren als menschliche Experten. Ein intelligentes Computerprogramm erkennt alle wichtigen Parameter der Röntgenaufnahme und erstellt in Sekunden die richtige Diagnose – das kann kein Mensch.

Bild: Mikael Häggström / CC0

Wenn wir ehrlich sind, müssten wir die Frage: «Was darf die KI?» mit einem klaren «Nur, was wir ihr erlauben!» beantworten. Und die moralisch-ethische Diskussion würde sich erübrigen. Wirklich? Nein, denn was wir ihr erlauben, wäre ja auch von moralischen Erwägungen geprägt. Aber dann würde sich das Problem dorthin verlagern, wo es schon war, zur menschlichen Moral. Und die wird auch nicht davon beeinflusst, ob ich einen Hammer in der Hand halte oder eine Bohrmaschine.

Wo gibt es Probleme und in welchen Fällen?

Man wird nicht drum herumkommen, Moral als Bewusstseinsphänomen anzusprechen. Und zwar ausschliesslich. Wie wir die Irrtümer in der Repräsentation der Welt in unserem Bewusstsein durch Erkenntnisgewinn ausmerzen, wird die moralische Kritik unsere Handlungsbegründungen und -rechtfertigungen immer wieder zu korrigieren versuchen. Nur so lässt sich der Verbindlichkeitsanspruch, den die Moral an uns stellt, begreifen.

Stellt die Atombombe höhere moralische Ansprüche als das Steinbeil? Wenn ja, dann gilt das auch für die Computerwelten, die um uns herum entstehen. Sie stellen uns vor Herausforderungen, die wir angehen müssen. Und es sind Angelegenheiten der menschlichen Moral (nicht der Maschinen). Ob der Roboter-Staubsauger die Spinne verschonen soll, ist keine moralische Entscheidung des Roboters. Auch wenn man ihn sie automatisch-autonom fällen lässt. Der Spinne ist Besen = Roboter.

Das Büchlein, das uns vier ausgewiesene Fachleute vorlegen, liefert keine grundstürzend neuen Einsichten. Aber es zählt zuverlässig die Hotspots auf.

Christoph Bartneck/Christoph Lütge/Alan Wagner/Sean Welsh: «Ethik» in KI und Robotik. Hanser München 2019. 170 S., Fr. 31.90.

Christoph Bartneck/Christoph Lütge/Alan Wagner/Sean Welsh: «Ethik» in KI und Robotik.
Hanser München 2019.
170 S., Fr. 31.90.

Die konkreten Fälle sind es letztlich, um die man sich kümmern muss. Wir müssen lernen, mit den Maschinen zusammenzuleben. Dazu braucht es, wenig überraschend, dieselbe Ressource, die das Zusammenleben mit anderen Menschen überschaubar und praktikabel macht: Vertrauen.

Die Erwartung, dass der Andere nicht zum Steinbeil greift, sondern ungefähr die gleichen Erwägungen macht wie wir, ist der Möglichkeitsraum, den die Moral eröffnet. Ob wir den Maschinen vertrauen können? Das lässt sich auf die Frage reduzieren: Wie weit können uns ihre Konstrukteure die Zweifel ausräumen? Und ist deshalb so sicher oder unsicher, wie der Umgang mit Technik schon immer war.

Weitere Essays unserer Technologie-Redaktion finden Sie hier: