Dunkle Algorithmen

Süddeutsche Zeitung Wochenende, 25. März 2017 – Link

Wenn Computer lernen, den Sinn menschlicher Sprache zu verstehen, bringt das Risiken mit sich. Erste Anwendungen zeigen, wie massiv der Eingriff in unser Leben sein kann – und die betroffenen Forscher beginnen, über die Ethik ihrer Disziplin nachzudenken.

Eine Schlagzeile im Wall Street Journal hat Michael Strube am 9. Juni 2013  die Augen geöffnet. „Wie die NSA so schnell so schlau wurde“ stand dort: Wie konnte der größte Auslandsgeheimdienst der USA nicht nur massenhaft Daten sammeln, sondern vor allem diese Masse auch auswerten, insbesondere Sprachdaten aus Emails und Telefonaten? Der 51jährige Computerlinguist vom Heidelberger Institut für Theoretische Studien war auf einer wissenschaftlichen Konferenz in den USA, die Zeitung lag auf dem Frühstückstisch im Hotel. Zehn Tage nach den Snowden-Enthüllungen bewegte das die Welt – und insbesondere Strube. Schließlich wurde im Artikel detailliert erläutert, wie seine Disziplin die Spione maßgeblich stark gemacht hatte: Natural Language Processing (NLP) lehrt Computern, menschliche Sprache zu verstehen. Die meisten Menschen haben mit dieser Technologie zu tun, wenn sie Dienste wie Google Translate verwenden oder ihr Smartphone per Sprachbefehlen bedienen. Die dunkle Seite ist weniger offensichtlich: „Der Öffentlichkeit ist zwar bekannt, dass die Geheimdienste auf Metadaten zugreifen“, sagt Strube, also auf Daten wie Absender oder Betreff einer Mail. „Aber die Wenigsten wissen, wie gut wir unstrukturierte Daten analysieren können.“ Unstrukturiert, das ist aus Sicht der Informatik beispielsweise die menschliche Sprache, die für Maschinen lange eine undurchsichtige Sache war. Und auch wenn man allein aus den Metadaten von Emails viele Rückschlüsse auf eine Person und ihr Umfeld schließen kann: wer den Inhalt automatisch auswerten kann, erfährt noch viel mehr.
Weiterlesen

Verdammt echt

Die ZEIT, 25. Feburar 2016

Die Virtuelle Realität fühlt sich realer an, als sich viele vorstellen können. Und sie kann missbraucht werden. Ein Ethik-Kodex soll der Gesellschaft helfen, die gute Verwendung der Technologie zu sichern.

Dieser Selbstmord war zu viel. Sean Buckley ist nicht allzu zart besaitet, er testet regelmäßig die neuesten Virtual-Reality-Killerspiele für das US-Magazin „engadget“. Aber als sich die junge Frau vor seinen Augen erschoss, zitterte er am ganzen Körper. „Das ist nicht fair, habe ich geschrien, ich bin völlig ausgeflippt“, beschreibt er seine Erfahrung im Nachhinein: „Sie war so real.“

Noch härter traf es die ersten Nutzer einer Demo für ein Sony-Headset. Dort konnte der Spieler die Pistole an die eigene Schläfe  setzen und abdrücken. Der virtuelle Selbstmord versetzte die Betroffenen derart unter Stress, dass das Unternehmen das Feature schnell wieder entfernte. „Dieses Medium ist sehr mächtig, deshalb müssen wir vorsichtig mit dem sein, was wir anbieten“, kommentierte Sony-Chef Shuhei Yoshida den Vorfall.
Der Virtual Reality wird für dieses Jahr der Durchbruch auf dem Massenmarkt vorhergesagt. Aber so manche Gamer machen derzeit Erfahrungen, die der Gesellschaft besser erspart bleiben sollten. Weiterlesen