Startseite
Leben
Kameras beobachten uns zu Hause und auf der Strasse. Bald erfassen sie auch unsere Gemütslage. Gesichtserkennungs-Software entwickelt sich rasant. Ein Ziel ist es, Verbrechen zu verhindern, bevor sie passieren.
Die Spähaffäre treibt immer neue Blüten. Nach Informationen der Zeitung «The Guardian» soll der britische Geheimdienst GCHQ (Government Communications Headquarters) jahrelang Bilder der Webcams von Yahoo-Nutzern abgegriffen haben.
Hunderttausende unschuldiger Bürger ahnten nicht, dass der Geheimdienst in ihre Wohnzimmer schaute, während sie sich mit Freunden über den Internet-Telefondienst unterhielten.
Geheimagenten speicherten für das Programm «Optic Nerve» von 2008 bis mindestens 2012 systematisch Standbilder aus dem Webcam-Chat des Internetkonzerns.
Dem Artikel zufolge, der auf Dokumenten des Whistleblowers Edward Snowden beruht, wurden die Bilder mit einer Gesichtserkennungssoftware analysiert, um potenzielle Terrorverdächtige wiederzuerkennen.
Kommentar von Raffael Schuppisser, Ressort-Leiter Leben & Wissen:
Stellen Sie sich folgendes Szenario vor: Jedes Mal, wenn Sie zu Hause telefonieren, tritt ein Geheimagent durch Ihre Wohnungstür, bleibt vor Ihnen stehen, fotografiert Sie und verlässt den Raum wieder. Wie würden Sie reagieren? Vermutlich wären Sie empört und würden sehr viel daransetzen, dass diese Praxis aufhört.
Nun stellen Sie sich Folgendes vor: Jedes Mal, wenn Sie zu Hause telefonieren, fliegt eine Drohne zu Ihnen durchs offene Fenster, fotografiert Sie und verlässt dann den Raum wieder. Sie würden auch hier empört reagieren, richtig? Vermutlich aber etwas weniger empört, weil es ja kein Mensch ist, der ihre Wohnung betritt, sondern «nur eine Drohne».
Und jetzt stellen Sie sich vor, dass jedes Mal, wenn sie über einen Internet-Dienst Videotelefonie nutzen, ein Bild von Ihnen gespeichert wird. Das ist nun keine Fiktion mehr, sondern Realität. Zumindest für den Dienst von Yahoo war das zwischen 2008 und 2012 der Fall. Und es ist gut möglich, dass das noch immer gemacht wird. Wie reagieren Sie also jetzt? Wenn Sie sagen, mir ist das egal, ich habe ja nichts zu verbergen, dann ist das sehr inkonsequent. Denn der Effekt ist der gleiche, wie wenn ein Geheimdienstagent zu Ihnen in die Wohnung kommt, um Sie zu fotografieren.
raffael.schuppisser@azmedien.ch0
www.twitter.com/raff_schupp
Verbrechen im Voraus aufklären
Der Blick des Geheimagenten in die Wohnungen der Bürger – das hört sich wie ein wahrgewordenes Überwachungsszenario von George Orwell an.
Doch es ist erst der Anfang dessen, was mit Gesichtserkennungssoftware alles möglich wird.
Seit einiger Zeit entwickeln Wissenschafter Software-Programme, die mit einer «frame-by-frame»-Videoanalyse in Millisekunden feinste Muskelkontraktionen im Gesicht erkennen und Aussagen über den Gemütszustand der Person treffen können.
Mit solchen Programmen liessen sich in Zukunft Personen mittels Webcams zu Hause und Überwachungskameras auf öffentlichen Plätzen analysieren.
Führt das Gegenüber etwas im Schilde? Plant ein Extremist einen Terroranschlag? Bei der Fussball-Weltmeisterschaft dieses Jahr in Brasilien wird die Polizei in São Paulo erstmals Brillen mit hochauflösender Kamera einsetzen.
Diese Agenten, von der Lokalbevölkerung nur «Robocops» genannt, sind in der Lage, Personen aus einer Distanz von 400 Metern mit 400 (!) Bildern in der Sekunde zu filmen und sie mit einer Datenbank, bestehend aus 13 Millionen Fotos, abzugleichen.
Die Polizei will verstärkt präventiv handeln. Der Gedanke des Police Predicting ist es, Verbrechen zu erkennen, bevor sie geschehen.
Das US Department of Homeland Security (DHS) testet derzeit die Überwachungssoftware «BOSS» (Biometric Optical Surveillance System), mit der Gesichter in einer Menschenmenge identifiziert werden können.
Das System besteht aus Roboterkameras, die mit Infrarot und Distanzsensoren arbeiten. Die computergesteuerten Kameras nehmen Bilder von unterschiedlichen Standpunkten auf und erstellen auf Grundlage der verschiedenen Ansichten eine 3-D-Signatur.
So lässt sich ein plastisches Porträt der Zielperson erstellen, das deutlich aussagekräftiger ist als ein konventionelles Fahndungsfoto.
Parallel dazu arbeitet das DHS an dem Überwachungssystem «FAST» (Future Attribute Screening Technology), bei dem Sensoren Herzschlag, Augenbewegungen und Atmungsaktivität von unverdächtigen Personen erfassen. Der Geheimdienst weiss womöglich bald mehr über Herzprobleme als der Patient.
Das klingt unheimlich. Und ist es auch. Der geneigte Beobachter fühlt sich unweigerlich an den Science-Fiction-Film «Minority Report» mit Tom Cruise aus dem Jahr 2002 erinnert, wo die Washingtoner Polizei der Abteilung «Precrime» mittels Präkognition Morde verhindern soll. Doch was Fiktion ist, könnte bald Wirklichkeit werden.
Das für 20 Millionen US-Dollar entwickelte FAST soll mittelfristig an Flughäfen zum Einsatz kommen. In einem Bericht des National Defense Research Institute heisst es:
«Ob es sich bei dem Verhalten um Waffenschmuggel, das Reisen mit gefälschten Dokumenten oder das Verbergen von Angst vor Sicherheitsbeamten handelt, können Mikro-Ausdrücke des Gesichts ein wichtiger Indikator für eine Täuschungsabsicht oder einen böswilligen Vorsatz sein.»
DHS-Sprecher John Verrico sagt, dass Testergebnisse einen böswilligen Vorsatz mit 78-prozentiger und eine Täuschungsabsicht mit 80-prozentiger Genauigkeit ermitteln könnten.
Auch Algorithmen machen Fehler
Die Technologie ist alles andere als unfehlbar – und sie wirft ethische Fragen auf. Das DHS setzt bei seiner Technik auf Algorithmen, die das Screening mit Faktoren wie Herkunft, Alter und Geschlecht kombinieren, um «indikative Hinweise eines Vorsatzes» zu ermitteln.
Allein, was ist eine kriminelle Absicht? Ist schierer Mutwille schon kriminell? Wo verläuft die Grenze? Ein Ägypter mit erhöhter Herzfrequenz stünde bald einmal unter Generalverdacht.
Das Problem ist, dass die Computer nur Abweichungen feststellen können, die vielleicht auf Nervosität schliessen lassen, aber nicht zweifelsfrei auf ein kriminelles Vorhaben. Man landet schnell in der Gesinnungsbezichtigung.
Jeramie Scott vom Electronic Privacy Information Center (EPIC) in Washington sieht dieser Entwicklung mit grosser Skepsis entgegen.
«Die Geheimhaltung und mangelnde Zurechenbarkeit von Algorithmen ist ein wachsendes Problem», sagt er. Wenn Algorithmen Entscheidungen darüber treffen, wer auf eine No-Fly-List gesetzt werde oder eine kriminelle Absicht hege, dann müsse darüber mehr Transparenz und Verantwortlichkeit herrschen.
Scott zweifelt auch grundsätzlich, ob die Face-Reading-Software die wahren Absichten von einer Person ablesen kann.
«Die Verhaltensanalyse, ob sie nun vom Menschen oder vom Computer durchgeführt wird, ist notorisch schlecht. Sie birgt das Risiko, dass sie falschen Alarm auslöst und unschuldige Menschen zum Ziel der Strafverfolgung macht.»
Ähnliche Bedenken hat auch Digitalforscher Tadas Baltrušaitis: «Es ist unmöglich sicherzustellen, dass die Algorithmen immer funktionieren, denn selbst Menschen können ja Gesichtsausdrücke fehlinterpretieren.»
Im Moment seien die Algorithmen noch nicht so verlässlich, wie wir es gerne hätten, sagt der Forscher.
Und der Sicherheitsexperte Scott warnt: «Die omnipräsente und mühelose Identifikation eliminiert die Fähigkeit des Einzelnen, seine Identität zu kontrollieren.»