Wissenschaftsreportage Technik Eva Wolfangel

Süddeutsche Zeitung am Wochenende, 29. Juli 2017 In Bildern stecken mehr Informationen, als sich die meisten Menschen vorstellen können. Angesichts der wachsenden Zahl an Kameras tüfteln Forscher an Konzepten, um den Schutz der Privatsphäre in der Technik zu verankern. Doch auch das hat seine Tücken.

Die Künstliche Intelligenz stellt fest: Im Restaurant Zunfthaus zur Waag im historischen Zentrum Zürichs sitzen 35 Gäste, weitere 24 genießen die Sonne unter den Sonnenschirmen, darunter eine ungewöhnlich große Gruppe. Im Haus sind aktuell acht Bewohner, der erste hat es heute um 6.45 Uhr verlassen, normalerweise kehren die letzten gegen 23 Uhr zurück. Die Fassade ist relativ frisch gestrichen, doch es zeigen sich erste kleine Schäden unterhalb eines Fensters im dritten Stock. Durch die oberen Fenster fällt am meisten Licht, zwei davon sind geöffnet, in den mittleren spiegelt sich das Haus gegenüber. Es finden sich kaum freie Parkplätze in der Nähe, und am benachbarten Paradeplatz sammeln sich auffällig viele Menschen. Vielleicht sollte man dort eine Polizeistreife vorbeischicken, nur sicherheitshalber, und vielleicht sollte man der Mutter des Kindes, das sein Zimmer im vierten Stock zur Sonnenseite hat, zu einer Verdunkelung raten, denn das System hat berechnet, dass der Raum um diese Zeit stark aufheizt, da das Fenster mit seiner Größe von 2,2 mal 1,5 Meter und dieser Ausrichtung viel Sonne hereinlässt.

Das Problem erledigt sich allerdings von selbst, wenn das Baugesuch des Hauses schräg gegenüber genehmigt und dieses um 4,5 Meter höher gebaut wird. Das reduziert den Sonneneinfall um 18 Prozent.

Dieses Beispiel aus Zürich ist fiktiv - zu einem sehr kleinen Teil. Wahr ist, dass es selbstlernende Algorithmen, automatische Bilderkennung und Millionen Fotos von Zürich gibt. Was für ein Datenschatz! Forscher der ETH Zürich haben ihn nun gehoben und können all die erwähnten Informationen aus den Daten extrahieren und noch einige mehr. Allein der Münsterhof mit dem Zunfthaus und des Fraumünster wurde tausende Male von Touristen aus allen erdenklichen Blickwinkeln fotografiert und auf öffentlich verfügbaren Foto-Plattformen und sozialen Netzwerken veröffentlicht. In ihren Bildern steckt mehr Wissen über eine Stadt, als sie ahnen.

Die ETH-Forscher haben in einem groß angelegten Projekt in den vergangenen fünf Jahren Millionen Fotos und Videos ihrer Heimatstadt gesammelt – darunter sowohl die der Touristen als auch jene von öffentlichen Webcams und anderen Kameras in der Stadt - um daraus ein Modell der Stadt zu generieren. Ein Modell, das viel mehr ist als eine dreidimensionale Abbildung. Aus den Daten geht so ziemlich alles hervor, was das Leben in einer Stadt ausmacht. Welche Funktion hat ein Gebäude, wie viele Menschen betreten es im Schnitt täglich, wo sammeln sich gerade Menschen? Aus den Bildern lässt sich auch berechnen, aus welchem Material Fassaden sind, wie viel Licht durch welches Fenster eines Hauses tritt und wo gerade ein Parkplatz frei wird.

Das sind Informationen, die einerseits für Städte sehr wertvoll sein können, andererseits Bedenken rund um die Privatsphäre hervorrufen. Dem sind sich die Wissenschaftler bewusst, und sie betonen, dass ihr System von Anfang an nach dem Motto „Privacy by design“ entwickelt wurde. Das bedeutet in diesem Fall, dass keinerlei Fotos oder Videos an sich an die Öffentlichkeit gelangen, sondern dass die Daten von Computerprogrammen direkt in ein Modell umgerechnet werden. Erst dieses wird dann für die Stadtplanung und andere Zwecke verwendet.

Anders als bei Google Street View also, wo Menschen und Häuser auf Wunsch nachträglich gepixelt werden, kommen jene Informationen, die einzelne Personen identifizieren könnten, gar nicht erst in das Endprodukt. „So kann es nicht geschehen, dass wir beispielsweise eine Person übersehen und vergessen zu pixeln“, sagt Hayko Riemenschneider vom Computer Vision Lab der ETH Zürich. Im Modell kann man also keine einzelnen Menschen erkennen, sondern lediglich beispielsweise, wo sich gerade welche Anzahl an Menschen aufhält. Ebenso mit den Fahrzeugen: anstatt Fotos von Autos zu verwenden und lediglich das Kennzeichen zu pixeln, erscheinen sie als modellierte Fahrzeuge, eine Art Avatar ihrer selbst.

„Das Einzigartige an unserem Projekt ist, dass wir eine ganze Stadt allein anhand von Bilddaten modelliert haben“, sagt Riemenschneider. Vergleichbare Projekte bleiben bei einzelnen Details stehen, beispielsweise dabei, Häuser als solche zu erkennen. Es ist beeindruckend und gleichzeitig auch ein wenig alarmierend, wie viele Informationen Bilder beinhalten. Das Varcity-Modell lernt zudem durch künstliche Intelligenz ständig dazu. Wie oft und aus welchen Perspektiven wurde ein bestimmtes Gebäude fotografiert? Auf welchen Platttformen taucht das Bild auf? Daraus können intelligente Algorithmen lernen, ob es sich vermutlich um eine Sehenswürdigkeit handelt oder um ein ganz normales Wohnhaus. Als die künstliche Intelligenz eine Stadtführung entwerfen sollte, ganz ohne Vorgaben der Programmierer, ähnelte sie derer der menschlichen Stadtführer verblüffend.

Den Schutz der Privatsphäre direkt ins technische Design eines Systems zu integrieren, das ist eines der großen Themen der aktuellen Forschung. Die neue europäische Datenschutzgrund-Verordnung verlangt, dass künftige Produkte eine privatsphärenfreundliche Grundeinstellung haben müssen. Gleichzeitig zeigen Projekte wie Varcity in Zürich, wie wertvoll Bilder und Filme für die künstliche Intelligenz sind, die uns in Zukunft so viel Arbeit abnehmen soll. Wozu Streifenpolizisten auf gut Glück patroullieren lassen, wozu Versicherungsgutachter persönlich vor Ort die Schäden an einer Fassade begutachten lassen, wenn das alles intelligente Algorithmen können?

„Das Projekt ist ein gutes Beispiel für die Informationsdichte von Bildern“, sagt Privacy-Experte Marc Langheinrich von der Universität Lugano. Und das ist gleichzeitig das Gefährliche daran. „Was ist, wenn plötzlich doch Not am Mann ist, eine Großfahndung beispielsweise“, fragt der Informatiker. Kann man dann die Software umschreiben, so dass die einzelnen Menschen doch wieder erkennbar sind? „Sobald man solche Geräte aus der Ferne warten kann, kann man auch eine andere Software aufspielen“, sagt er. Das heißt auch: sobald sich die öffentliche Meinung oder die politische Lage ändert, ist der Privatsphärenschutz Makulatur. Doch natürlich sind fernwartbare Kameras die Regel: müsste man zu jeder einzelnen persönlich hinfahren, um einen Softwarefehler zu beheben, wären sie kaum wirtschaftlich.

Langheinrich hat immer wieder beobachtet, wie neue Technologien eingeführt wurden, zunächst vorsichtig - doch kaum sind Daten vorhanden, wecken sie Begehrlichkeiten: „Man möchte dann eben doch wissen: wie bewegen sich Menschen durch die Stadt, man möchte die Wege Einzelner verfolgen.“ Auch das geht zwar anonym, aber jeder einzelne Mensch muss dafür eine eindeutige Kennung haben. Von dort ist der Weg zu einer Einzelperson nicht weit, mahnt Langheinrich: „Je qualitativ hochwertiger ein Datensatz ist, umso gefährlicher ist er.“ Forscher haben immer wieder gezeigt: Je mehr Informationen vorhanden sind, umso schwieriger ist es, Anonymität aufrecht zu erhalten. Durch Korrelationen der Daten untereinander kann häufig letztlich doch auf einzelne Menschen geschlossen werden. „Und selbst wenn ich heute in einem konkreten Fall beweisen kann, dass es nicht möglich ist zu de-anonymsieren, heißt das nichts für die Zukunft.“ Schließlich wächst der Berg an Daten unablässig, den unser Alltag erzeugt. „Sicher ist nichts heutzutage.“

Sicher scheint viel mehr: immer mehr Sicherheitsgesetze werden verschärft und in aller Regel nie wieder gelockert. Und angesichts von Tod und Terror werden jene, die unsere Privatsphäre anmahnen, gerne überhört. Einer von ihnen ist Jürgen Taeger, ein wohl überlegter Mahner, der stets abwägt. Er ist nicht per se gegen Videoüberwachung. Zuletzt hat der Professor für Rechtswissenschaft von der Uni Oldenburg einige Feldversuche begleitet, in denen Polizisten und Wachdienste mit so genannten Bodycams ausgerüstet wurden: Kameras an ihren Uniformen, die ihr Gegenüber filmen. „Wichtig ist dabei, dass gut sichtbar auf die Kameras hingewiesen wird und sie nur im Ernstfall und erst nach mehrmaliger Ankündigung wirklich eingeschaltet werden“, sagt er. Dann seien sie ein gutes Mittel zu Deeskalation – und zwar wegen einer privatsphärenfreundlichen Einstellung: ein nach vorne gerichteter Monitor zeigt das aufgenommene Bild, damit die Betroffenen sehen können, was gefilmt wird. „Allein das führt zu einer Deeskalation“, sagt Taeger: Störer geben dann meistens nach. „Wenn man sich selbst im Bild sieht hat man ein ganz anderes Gefühl.“

Problematisch hingegen seien Versuche wie jener am Berliner Südkreuz, wo mit freiwilligen Pendlern getestet wird, wie gut die Gesichtserkennung funktioniert – vorallem in Kombnation mit dem kürzlich geänderten Personalausweisgesetz: Polizisten dürfen jetzt im Verdachtsfall auf die Bilddaten zugreifen: „Damit ist es theoretisch möglich, ein Bewegungsprofil aller Deutschen zu erstellen.“ Theoretisch noch, denn die Datenmenge ist enorm und kaum zu verarbeiten. Doch die Technik wird besser, und die Zahl der Kameras wächst.

Marit Hansen, Datenschutzbeauftragte von Schleswig-Holstein, verweist zudem auf die wachsende Zahl an Kamera-Drohnen. „Manche sind fast so klein wie Insekten und können indoor fliegen“, sagt sie, „da kommt eine ganz andere Welt auf uns zu.“ Eine Welt, in der Anonymität Geschichte sein könnte: „Die Algorithmen sind heute schon da, man kann sich nicht mehr darauf verlassen, dass man anonym bleiben kann“, sagt Hansen. So sei kürzlich ein gewalttätiger Vater an einer Schule aufgetaucht: Mutter und Kind seien anonym in ein anderes Bundesland gezogen, doch der Vater hatte dank automatischer Gesichtserkennung und Fotos in sozialen Netzwerken herausgefunden, wo sein Kind ist. „Die Lösung kann nicht sein, dass Menschen, denen Datenschutz wichtig ist, nicht mehr mitmachen dürfen“, sagt sie – beispielsweise keine sozialen Netzwerke mehr nutzen.

Angesichts der Begehrlichkeiten, die Daten hervorrufen, empfiehlt Privacy-Experte Langheinrich, dass Informationen, die man nicht unbedingt benötigt, gar nicht erst erhoben werden sollten. So gibt es Konzepte von Kameras, die mit einer Datenbank verbunden sind, in der jeder Nutzer eine Art Foto-Freigabe hinterlegt: wer darf mich fotografieren? Wer nicht? An welchen Orten? Dank Gesichtserkennung „wissen“ diese smarten Kameras, wen sie vor sich haben. Ist dieser nicht in der Datenbank hinterlegt – oder ist dort vermerkt, dass er nicht fotografiert werden möchte - wird sein Gesicht gar nicht erst aufgenommen sondern direkt verpixelt. Es gebe dabei nur ein Problem, so Langheinrich: den Menschen. „Wer kauft schon eine Kamera, die keine Fotos macht?“

Das sei eines Frage des gesellschaftlichen Bewusstseins, sagt Susanne Boll. Die Professorin für Medieninformatik der Uni Oldenburg hat gemeinsam mit ihrer Kollegin Marion Koelle in einem interdisziplinären Projekt verschiedene Konzepte erarbeitet, wie die Privatsphäre bereits im Design technischer Geräte verankert werden kann. „Wir müssen als Gesellschaft entscheiden, welche Konventionen wir haben wollen“, sagt sie. Eine zentrale Erkenntnis ihrer Forschung: Transparenz ist wichtig. Selbst die Träger so genannter Lifelogging-Kameras, die wie die Bodycams der Polizei Bilder nach vorne machen, wollen diese nicht verstecken. Beispielsweise haben die Forscher eine Kamera konzipiert, die per Lichtsignalen anzeigt, welchen Bereich sie gerade filmt. Sollten wir nicht auf Überwachungskameras im öffentlichen Raum verzichten wollen, könnten diese Gesichtserkennung nutzen ohne die Aufnahmen zu speichern: „Sie springen erst dann an, wenn eine gesuchte Person erkannt wird.“ Ähnlich könnte es bei privaten Kameras funktionieren, wenn es eine allgemein anerkannte Form der Kommunikation über Geräte gibt: Nutzer könnten einen QR-Code oder einen ähnlichen optischen Marker tragen oder auch per Funk oder Infrarotsignal allen Geräten in der Nähe signalisieren, dass sie nicht aufgenommen werden wollen.

Doch viele der Ideen sind solche, bei denen derjenige aktiv werden muss, der nicht gefilmt oder fotografiert werden soll: sei es mit einer Kennzeichnung, die smarte Kameras automatisch wahrnehmen oder mit einem „nein“, das er in einer Datenbank oder anderswo hinterlegen muss. Auch die heutige Rechtsprechung sei leider so, sagt Taeger: „Wer nicht fotografiert werden will, ist immer in der Not, seine Interessen durchzusetzen.“ Das Repertoire an smarten Kameras aus Koelles Forschungsprojekt sieht aber auch den anderen Weg vor: Beispielsweise Kameras, die dank künstlicher Intelligenz von sich aus anhand der Art der Interaktion der Menschen erkennen, ob es sich um eine private Situation handelt und sich dann selbständig ausschalten. „Eine solche Kamera könnte sich dann deutlich sichtbar verschließen - als Signal an das Gegenüber: ich sehe, das hier ist privat“, sagt Boll. Oder auch Kameras, die regelmäßig per Funk beim Smartphone des Gegenübers anfragen, ob dieser gefilmt werden möchte und die nur dann eine Freigabe bekommen, wenn die entsprechende Option aktiviert ist.

Konzepte gibt es viele, und die Technik ist für die meisten reif. Dennoch hat es kaum eines davon in die Praxis geschafft. „Eine der größten Lücken zwischen Wissenschaft und Praxis klafft im Bereich Privacy by design“, sagt auch Marit Hansen. Bislang sei der Anreiz zu gering gewesen. „Man kam ja auch mit etwas schlechterem durch.“

Privacy by design dürfe aber kein Freibrief sein, warnt Marc Langheinrich. Bei aller Faszination für das, was möglich ist mit der modernen Technik, rät er dazu stets eine Frage zu stellen: „Brauchen wir das wirklich?“ Als vor zwei Jahren in Kalifornien die Erde bebte, konnte man anhand der vielen tragbaren Fitnesstracker genau verfolgen, wo das Beben wie stark war und wie lange die Menschen in den betroffnen Gebieten nachts wach lagen. Faszinierend. „Aber wozu brauchen wir das?“, fragt Langheinrich. „Man muss bei all dem ein bisschen Augenmaß bewahren und fragen: ist das Spielerei oder hat es einen wirklichen Nutzen?“ Am Ende gehe es um diejenigen, die unser technisiertes Leben gestalten: „Die den Code schreiben brauchen viel mehr Bewusstsein für die Folgen ihrer Taten.“ Es darf nicht mehr nur um den schönsten, schnellsten, besten Code gehen, sondern um jenen, der den geringsten Kollateralschaden verursacht. Wie so oft im Leben kann auch hier weniger manchmal mehr sein.