Ethik
Nun gibts eine App fürs Gewissen – macht uns das Smartphone moralischer?

Technische Programme jeglicher Art erleichtern uns das Leben. In seinem Essay schreibt der Oltner Physiker und Philosoph Eduard Kaeser, wie sich Technik auf unsere Moral auswirken kann.

Eduard Kaeser
Drucken
Teilen
Wie es scheint, arbeitet eine neue Benimm-Technologie daran, diesen moralischen Reifeprozess rückgängig zu machen, in Gestalt von Apps, die – als digitale Jiminy Grilles – den Nutzer Mores lehren sollen. (Symbolbild)

Wie es scheint, arbeitet eine neue Benimm-Technologie daran, diesen moralischen Reifeprozess rückgängig zu machen, in Gestalt von Apps, die – als digitale Jiminy Grilles – den Nutzer Mores lehren sollen. (Symbolbild)

Fabio Baranzini

Mitunter erglänzt altes Fabelgut durch moderne Entwicklungen in einem verblüffend aktuellen Licht. Erinnert man sich noch an Walt Disneys wunderschönen Zeichentrickfilm «Pinocchio»? An den kleinen gewitzten Jiminy Grille, welcher Pinocchio – der animierten Puppe, also eigentlich: dem Automaten – stets sagt, was richtig und was falsch sei, und ihn so auf den Weg des Benimms führt. Moralische Reife erlangt Pinocchio allerdings erst, als er sich von den Ratschlägen seines moralischen Einflüsterers befreit, nun selbst – aus Einsicht – Entscheidungen trifft und Urteile fällt. Genau dann wird die Puppe zu einem echten moralischen Agenten.

Wie es scheint, arbeitet eine neue Benimm-Technologie daran, diesen moralischen Reifeprozess rückgängig zu machen, in Gestalt von Apps, die – als digitale Jiminy Grilles – den Nutzer Mores lehren sollen. «Managing Yourself with Your Smartphone» lautet die Devise, und mit diesem «Managing» ist das moralische Sich-selbst-Handhaben mitgemeint. Damit ist nicht unterstellt, dass ein Solches uns bisher gefehlt hat, sondern, dass in den neuen digitalen Umwelten auch ein moralischer Kompass immer notwendiger wird – zumindest, wenn man den Verheissungen der Branche für einen Augenblick Glauben schenken will.

Technik wird paternalistischer

Die Entwicklung ist indes schon lang im Gange. Ihren Anfang nahm sie bei einfachen technischen Schutz- und Kontrollvorrichtungen, etwa beim Sicherheitsgurt im Auto oder beim Ventil des Dampfkochtopfs. Ihre Weiterführung findet sie heute in den zahlreichen elektronischen Sensoren und Displays, die uns über den Zustand der uns umgebenden Gerätewelt dauernd auf dem Laufenden halten, immer mehr nun aber auch über den Zustand des Nutzers selbst.

Die Technik wird paternalistischer. Es gibt Apps, die mich über meinen aktuellen physischen Zustand informieren; Apps, die eine «Mood»-Analyse durchführen, um festzustellen, in welcher Stimmung ich mich gerade befinde (ich muss das selber gar nicht mehr wissen); Apps, die mich daran hindern, unüberlegte oder beleidigende Mails zu versenden; Apps, die mich zu «vernünftigem» Ess- und Trinkverhalten anstiften; Apps, die mich über Fair-Trade-Einkäufe informieren; Apps, die aus meinen Daten ein psychosoziales Profil erstellen, anhand dessen ich dann der Situation entsprechend auftreten kann: in der Prüfung, im Bewerbungsgespräch, in der Vertragsverhandlung, in der politischen Debatte usw. Arianne Huffington von der «HuffingtonPost» lancierte vor drei Jahren das Projekt eines «GPS für die Seele», eines moralischen und psychologischen Kompasses durchs Leben.

Künstliche Kompetenz

Der technische Paternalismus ist der Zusammenfluss dreier Strömungen aktuellen Verhaltens-Managements: Gamifizierung (das Verhalten als Spiel betrachten), Nudging (sich zu einem Verhalten schubsen lassen) und Self-Quantification (sein Verhalten «datizifieren»). Wenn es sich bei vielen Apps auch letztlich um technischen Schnickschnack handeln mag, so sollte man sich der Mainstreams im Hintergrund bewusst sein. Selbstverständlich können uns solche Applikationen künstlicher Intelligenz in der Beurteilung einer Lage, für bestimmte insulare Aufgabenbereiche, behilflich sein. Nicht mehr und nicht weniger. Sie sind künstliche Intelligenz auf Autistenstufe. Verbesserte statistische Analysemethoden, ausgeklügelte mathematische Modelle, grössere Rechenkapazitäten und ungeheure Datenmassen versetzen uns in die Lage, komplexe Situationen zu meistern. Dazu können auch ethisch relevante Situationen gehören. Aber man sollte diese künstliche Kompetenz nicht verwechseln mit der ethischen Kompetenz des Menschen. Der grosse Irrtum besteht darin, dass man sich durch Apps dazu verführen lässt, moralische Fragen als technische Fragen zu behandeln.

Ethik lässt sich nicht outsourcen

Worin besteht die ethische Kompetenz des Menschen? Eine alte Frage. Und auf einmal gewinnen wieder alte philosophische Begriffe an Bedeutung. Zum Beispiel die aristotelische «Phronesis»: Besonnenheit, wohlinformierte, kontextabhängige praktische Vernunft. Ist Lügen gut oder böse? Das kommt auf den Fall an. Und es gibt keine App für alle Fälle. Deshalb müssen wir die Situation selber – vorerst ohne App – genauer anschauen. Wir merken dann, dass ein Kontinuum von Alltagssituationen existiert, in denen wir uns als moralische Agenten zu bewähren haben. Es gibt Lügen um der Höflichkeit willen, Notlügen, Zwecklügen, vorsätzliche, zwanghafte, soziale Lügen, Lebenslügen, Bluffs, Tricks, Finten usw. in allen nur erdenklichen, weil individuellen Abschattungen.

Die ethische Relevanz des Lügens lernen wir, genau so wie Pinocchio, indem wir uns sozialisieren und im Zuge dieser Sozialisierung eines bemerken: «Echtes» ethisches Verhalten lässt sich nicht an Apps outsourcen, weil wir die «Quelle» solchen Verhalten sind.

Und hier bekommen wir es mit einem gravierenden techno-sozio-kulturellen Problem zu tun. Die Automatisierung schreitet voran, einige meinen: unaufhaltsam. Aber fragen wir uns doch einmal, wozu sie gut ist.

Ein zweiter alter Philosoph meldet sich hier zu Wort, Thomas von Aquin. Seine Unterscheidung zwischen «actus humanus» und «actus hominis» ist höchst aktuell; also zwischen bewussten, willentlichen und unbewussten, unwillkürlichen Akten. Automatisierung ist sicher dann sinnvoll, wenn sie repetitive, geistlose, routinemässige Tätigkeiten des Menschen ersetzt. Ist moralisches Urteilen eine solche Routine? Sie kann es fallweise durchaus sein, nämlich dann, wenn wir darin einen «actus hominis» sehen. Zumindest bisher war das klar.

Die heutige technologische Entwicklung verwischt nun aber zusehends die Grenze zwischen den beiden Handlungsarten und diese Grenzverwischung ist verhängnisvoll. Denn sie führt uns tendenziell dazu, unsere «Phronesis» durch lauter kleine Jiminy Grilles zu ersetzen.

Wozu sich Gewissen machen?

Und so kann man ein Fazit aus Pinocchios Geschichte ziehen: Die Puppe – die Maschine – reift erst dann zum moralischen Agenten, wenn sie nicht mehr bloss Puppe ist. Wir technikverwöhnten Menschen haben uns dagegen selber in die Lage manövriert, nun quasi wieder Puppen zu werden, Puppen all der digitalen Jiminy Grilles, die wir mit uns herumtragen.

Es gehört zu den Banalitäten der Pädagogik, dass erlernte Fähigkeiten verkümmern, wenn sie nicht mehr praktiziert werden. Schon ist etwa die Rede davon, dass wir mit Google verlernen, richtige Fragen zu stellen, das heisst Fragen aus dem Nichtwissen, aus der Neugier heraus. Wir fragen im Zeitalter der «Query» bloss noch den Computer ab, weil eigentlich Google und Wikipedia alles für uns «wissen». Wozu mathematische Fertigkeiten ausbilden, wenn es die nötigen Lösungsapps gibt; wozu noch schreiben, wenn es Textverarbeitungssoftware gibt; wozu sich noch ein Gewissen machen, wenn mir meine Gewissens-App sagt, was zu tun ist.

Können technische Objekte eine Moral haben? Die Frage klingt auf erstes Anhören abstrus, denn unser Denken ist traditionell geprägt von einem Dualismus zwischen Menschlichem und Künstlichem, und dieser Dualismus schreibt dem Menschen allein das Vorrecht der Moralität zu. Technik ist das Reich der Mittel, Moral das Reich der Zwecke. Diese Grenzlinie verschwimmt heute. Technik hat aufgehört, blosses Mittel zu sein, sie ist selber Zweck geworden. Der Automat wird autonom. Und das heisst: Wir müssen uns als moralische Agenten inmitten unseres Geräteparks, der moralische Attitüden annimmt, neu definieren.

Technik verändert unsere Sitten

Konkret bedeutet das, nicht aufzuhören, die Frage zu stellen: Was gewinnen wir eigentlich, wenn wir immer mehr Kompetenzen an Artefakte delegieren? Die Frage erhält heute besonderes Gewicht, weil zu diesen Kompetenzen nunmehr solche gehören, die wir traditionell als typisch human betrachteten. Dabei gilt es, einer impliziten Tendenz des technischen Fortschritts innezuwerden, nämlich der fortschreitenden Undurchsichtigkeit der technischen Mittel.

Es gibt eine Hinterlist des Geräts. Sie äussert sich darin, dass es im routinierten Gebrauch verschwindet, aber gerade über diesen Umweg umso gebieterischer als etwas «Anderes» auf uns einwirkt, unser Verhalten, unsere Motive, ja, unsere Sitten modifiziert. Die digitale Technologie zeigt exemplarisch diese Entwicklung auf.

Und ohnehin, Hand aufs Herz: Wer versteht all jene schönen Dinge, die unseren Alltag so reibungslos auf Touren halten – das Auto, den Kühlschrank, den Fernseher, den Computer, das Smartphone? Wir verstehen uns ja bestenfalls auf ihre Bedienung. Man halte sich für einen Moment das Szenario vor Augen, in dem wir dasselbe von unserer Moral sagen würden: Wir verstehen nicht mehr, was gut und was schlecht ist, wir «checken» einfach die Gewissens-App. Spätestens dann haben wir uns von moralischen Agenten in moralische Mutanten verwandelt.

Aktuelle Nachrichten