Wer war das?

Die ZEIT, 1. Juni 2017 – Ausschnitt

Wenn jemand per Internet eine Überweisung tätigt, hinterlässt er einzigartige Spuren. Anhand solcher biometrischer Merkmale identifiziert eine diskrete Firma im Auftrag von Banken Millionen von Nutzern. Die ahnen davon nichts.

Seelenruhig schaut Natia Golan zu, wie der Hacker seinen Raub vorbereitet. Er hat die  Kontrolle über das Online-Konto einer ahnungslosen britischen Bankkundin übernommen, als sie gerade Geld überwies. Kaum war sie fertig, griff er aus der Ferne zu. Er tippt ihr Passwort in die Maske und gibt vor, vor dem Computer der Kundin in Großbritannien zu sitzen. Das Passwort stimmt. Auch die Summe von etwas mehr als einer Million Pfund, die er gerade überweisen will, ist nicht unüblich für die überdurchschnittlich wohlhabenden Kunden. Und doch: Ein Detail stört das Bild.

Weiterlesen

Die mobile Reportage der Zukunft

Hintergrund zu meinem Masterclass-Projekt und Fragen an Euch

Als Stipendiatin der Masterclass Wissenschaftsjournalismus (gefördert von der Bosch Stiftung und vom Reporterforum) habe ich zwischen Juni 2016 und April 2017 an neuen mobilen Reportageformen gearbeitet. Ein Ergebnis ist meine Reportage über Alexander Gerst und das russische Sternenstädtchen – eine geheime und geschlossene Stadt, in der er sich derzeit meistens aufhält, um sich für seinen Raumflug 2018 vorzubereiten. Die Reportage ist jetzt im digitalen SPIEGEL erschienen, und zwar in zweierlei Form: einmal als so genannte Visual Story (hier ein  kostenpflichtiger Link), was früher altmodisch Multimedia-Geschichte hieß, und einmal als so genannte „Lese-Version“ (kostenloser Zugang). Mir geht es also bei der Geschichte nicht nur um den Inhalt, sondern auch um die Form. Und hier wünsche ich mir euer Feedback: Wie gefallen euch die beiden verschiedenen Formen? Ist mein Konzept aufgegangen? Was wünscht ihr euch für die mobile Reportage der Zukunft?

Dafür hier einige Hintergrundinfos dazu, was ich mir gedacht habe und warum mich das Thema Reportage auf Mobilgeräten so bewegt: Meine Leidenschaft sind Reportagen, und Ihnen droht aus meiner Sicht im digitalen Zeitalter Gefahr. Nicht weil lange Texte online nicht gewünscht sind, wie irrigerweise immer wieder behauptet wird: immer wieder zeigen Studien, dass Leser auch online und auf mobilen Geräten lange Texte goutieren. Sondern weil Reportagen falsch aufbereitet werden, was sie insbesondere auf dem Smartphone oft unlesbar macht. Entweder als langer, unübersichtlicher Scrolltext oder mit zu vielen, sich inhaltlich wiederholenden Multimedia-Elementen, die den Leser aus dem Text ziehen und die Bilder im Kopf unmöglich werden lassen.
Weiterlesen

„Ich habe im Kopf berechnet, wie lange wir noch überleben“

Leseprobe aus Der SPIEGEL 17/2017 – Link

Im Sternenstädtchen bei Moskau werden aus Kampfpiloten und Wissenschaftlern Astronauten und Kosmonauten. Und sie werden zu Helden. Auch wenn sie sich zunehmend dagegen wehren – das diktiert der Ort und die Tradition. Ein Besuch bei Alexander Gerst und seinen russischen Kollegen.

Kurz vor der rettenden Station versagt die Automatik. Die Internationale Raumstation ISS ist nur noch einen Sprint entfernt. Auf der Erde würde Alexander Gerst die Strecke in wenigen Sekunden zurücklegen. Aber hier in der Sojus trennen ihn nur wenige Kubikmeter Luft und eine dünne Schicht aus Aluminium von der lebensfeindlichen Umgebung des Weltalls. Jetzt darf nichts schiefgehen. Bis hierhin ist der Flug von der Erde zur Raumstation ohne Probleme verlaufen, aber jetzt, auf den letzten schwierigsten Metern lässt die Automatik Gerst und seinen russischen Kollegen Anton Schkaplerow im Stich. Die beiden Raumfahrer schalten auf eine andere Automatik um: die in ihrem Kopf. Unzählige Male haben sie diese Situation geübt, damit sie in einem Fall wie diesem wie Roboter handeln. Sie steuern das Raumschiff von Hand. Gerst schaut durch ein Fernglas und richtet das Lasermessgerät auf einen festen Punkt an der Raumstation. „200 Meter“, sagt er. Schkaplerow sagt: „Und jetzt?“, „200 Meter“ „Jetzt?“ „200 Meter“. So geht das lange drei Minuten. Schkaplerow steuert das Raumschiff, Gerst misst. Nichts bewegt sich. Dann: „195 Meter“. 190. 190. 190. „Wiederhole alle 20 Sekunden“, befiehlt Schkaplerow. Gerst tut das. Minutenlang. 180, 180. 180. 175. Der Kosmonaut fliegt bewusst langsam. In dieser Nähe ist die Gefahr groß, die Station zu rammen. Mit lebensgefährlichen Folgen sowohl für die Raumfahrer in der Kapsel als auch für die Crew an Bord der ISS. Weiterlesen

Hoch hinaus

Stuttgarter Zeitung, 18. April 2017

Lisa Haas will ins All, seit sie denken kann. Sie ist eine von sechs Finalistinnen im Wettbewerb „Die Astronautin“. Aller Kritik am Wettbewerb zum Trotz findet sie: wir haben genug gewartet! Es müssen mehr Frauen ins All.

Hach die Physik! Der weiße Klettergriff unter der rechten Hand von Lisa Haas ist groß aber abschüssig, der unter der Linken nicht besser, ihr linker Fuß steht auf einem winzig kleinen Tritt, der rechte Fuß angelt nach einer Kante, die einfach nicht näher kommen will, aus den Lautsprecherboxen tönt kämpferische Musik, aber auch das hilft nichts: Die rechte Hand rutscht ab, die Kletterin stürzt aus der Wand und landet auf einer großen weichen Matte. Die Menschen um sie herum in der Tübinger Boulderhalle fluchen, wenn sie wie Haas aus der Wand fallen wie eine Tür, die schief in den Scharnieren hängt. Aber sie lacht. „Das ist Physik“, ruft sie begeistert, Gleichgewicht, Reibungskräfte, der Schwerpunkt und die verdammte Schwerkraft – „was man hier alles sehen kann!“

Ja die verdammte Schwerkraft. Was würde Lisa Haas geben, um ihr zu entkommen, und sei es nur für ein paar Tage! Die 33-jährige promovierte Physikerin möchte ins All und hat dafür schon größere Hürden genommen als dieses weiße Boulderproblem, das sie an diesem Tag noch oft abschütteln wird. Weiterlesen

Künstliche Intelligenz mit handfesten Vorurteilen

Spektrum der Wissenschaft/spektrum.de, 13. April 2017 – Link

In der Computerlinguistik nimmt eine Debatte über die Ethik des Faches an Fahrt auf: zwei aktuelle Veröffentlichungen zeigen, dass Algorithmen Vorurteile von Menschen übernehmen und diese zementieren. Wie kann sich die Gesellschaft davor schützen? Die Forscher haben verschiedene Ansätze – aber noch keine Lösung.

Wenn eine künstliche Intelligenz die menschliche Sprache aus repräsentativen Texten der Menschheit lernt, entwickelt sie Vorurteile. Schließlich stecken diese bereits in den Trainingsdaten, wenn auch häufig wenig offensichtlich. Die Diskussion darum, wie die Forschung mit dieser Tatsache umgehen soll, nimmt gerade an Fahrt auf und hat nun durch eine aktuelle Studie im Magazin „Science“ neue Nahrung bekommen: Forscher um die Informatikerin Aylin Caliskan von der Princeton University zeigen darin, dass entsprechende Algorithmen die gleichen impliziten rassistischen und sexistischen Stereotypen reproduzieren wie Menschen. Sie erzielten mit ihrem Messverfahren vergleichbare Ergebnisse wie Neurowissenschaftler, die unbewusste Vorurteile und Wertvorstelleungen bei Menschen mittels des Implicit Associations Test (IAT) untersucht hatten. Weiterlesen

Dunkle Algorithmen

Süddeutsche Zeitung Wochenende, 25. März 2017 – Link

Wenn Computer lernen, den Sinn menschlicher Sprache zu verstehen, bringt das Risiken mit sich. Erste Anwendungen zeigen, wie massiv der Eingriff in unser Leben sein kann – und die betroffenen Forscher beginnen, über die Ethik ihrer Disziplin nachzudenken.

Eine Schlagzeile im Wall Street Journal hat Michael Strube am 9. Juni 2013  die Augen geöffnet. „Wie die NSA so schnell so schlau wurde“ stand dort: Wie konnte der größte Auslandsgeheimdienst der USA nicht nur massenhaft Daten sammeln, sondern vor allem diese Masse auch auswerten, insbesondere Sprachdaten aus Emails und Telefonaten? Der 51jährige Computerlinguist vom Heidelberger Institut für Theoretische Studien war auf einer wissenschaftlichen Konferenz in den USA, die Zeitung lag auf dem Frühstückstisch im Hotel. Zehn Tage nach den Snowden-Enthüllungen bewegte das die Welt – und insbesondere Strube. Schließlich wurde im Artikel detailliert erläutert, wie seine Disziplin die Spione maßgeblich stark gemacht hatte: Natural Language Processing (NLP) lehrt Computern, menschliche Sprache zu verstehen. Die meisten Menschen haben mit dieser Technologie zu tun, wenn sie Dienste wie Google Translate verwenden oder ihr Smartphone per Sprachbefehlen bedienen. Die dunkle Seite ist weniger offensichtlich: „Der Öffentlichkeit ist zwar bekannt, dass die Geheimdienste auf Metadaten zugreifen“, sagt Strube, also auf Daten wie Absender oder Betreff einer Mail. „Aber die Wenigsten wissen, wie gut wir unstrukturierte Daten analysieren können.“ Unstrukturiert, das ist aus Sicht der Informatik beispielsweise die menschliche Sprache, die für Maschinen lange eine undurchsichtige Sache war. Und auch wenn man allein aus den Metadaten von Emails viele Rückschlüsse auf eine Person und ihr Umfeld schließen kann: wer den Inhalt automatisch auswerten kann, erfährt noch viel mehr.
Weiterlesen

Hundert Ideen, damit eine fliegt

Die ZEIT, 17. November 2016

Der Technologiekonzern Bosch hat eine für Deutschland einzigartige und ungewöhnliche kreative Etage geschaffen – aus der Not heraus: Das Unternehmen lebt von Ideen, aber seine Forscher sind nicht frei im Kopf. Hilft das kreative Chaos?

Der Blick aus dem 12. Stock ins Grüne sieht nicht nach unserer technologischen Zukunft aus. Sanfte grüne Hügel wechseln sich ab mit Besiedlungen, zu den Füßen ein Teich, Bänke und ein Fußballfeld. Aber was ist da im Blickfeld? Schmale blaue Linien lassen manche Konturen verschwimmen. Schrift. Hier haben Leute auf das Glas der Fenster geschrieben. „Wie leben wir 2030?“ steht da. Wer weiter lesen will, hat schnell Birgit Thoben im Nacken. „Das hier sind unsere Ideen, das ist unser geschütztes Refugium. Bitte nicht aufschreiben.“ Thoben ist Innovatiosmanagerin beim Technologiekonzern Bosch, sie verantwortet diese besondere Etage namens „Plattform 12“ am neuen Forschungsstandort in Renningen bei Stuttgart. Wie leben wir in Zukunft? Ob an jenen Fensterscheiben die Antwort steht, darf hier leider nicht verraten werden. Die Plattform 12 ist für die Öffentlichkeit geschlossen. Diese Recherche ist eine Ausnahme – und sie konnte nur stattfinden gegen das hoch und heilige Versprechen, hier keine Geheimnisse und keine konkreten Ideen zu verraten.
Weiterlesen

Die ewige Liebe der Quanten

Welt am Sonntag, 19. Februar 2017

Ein weltweites Quanteninternet könnte die digitale Kommunikation in Zukunft sicher und unangreifbar machen. Im Zentrum der Forschungen stehen österreichische Wissenschaftler und Quanteneffekte, die dem gesunden Menschenverstand widersprechen

Es knallten keine Sektkorken, eine Party gab es auch nicht, als Physiker im Jahr 1975 eine Entdeckung machten, die später eine Grundlage der Quantenkommunikation wurde. Ein damals noch unbekannter wissenschaftlicher Mitarbeiter des Physikers Helmut Rauch weist zusammen diesem und Kollegen nach, dass sich Neutronen, weil sie Eigenschaften von Wellen und nicht nur jene von Teilchen haben, ganz seltsam verhalten, wenn sie um ihre Achse gedreht werden: sie verändern ihren Zustand. „Das hatten wir nicht erwartet, dass die Welt nicht die gleiche ist, wenn man sie um 360 Grad dreht“, sagt Anton Zeilinger heute. Die Physiker konnten damals nicht wissen, dass diese Entdeckung jemals eine praktische Relevanz haben würde. „Wenn wir damals gefragt wurden, wozu das alles gut ist, haben wir gesagt: für nichts, das ist für nichts gut, wir machen das nur aus Interesse an der Sache“, sagt Zeilinger, der heute Professor an der Uni Wien ist.
Weiterlesen

Können Computer Lügen entlarven?

Spektrum.de/Spektrum der Wissenschaft, 17. Januar 2017 – Link

Aktuelle Aktivitäten gegen Fakenews konzentrieren sich vorallem darauf, unseriöse Quellen automatisch zu erkennen. Aber können Algorithmen Falschmeldungen an sich identifizieren? Es schien zeitweise so, als habe die Wissenschaft das schon zu den Akten gelegt. Aber eine Wette und ein Streit unter Forschern gibt neue Hoffnung.

Ende 2016 ächzte die Welt unter dem Problem der Fakenews – und 2017 wird das Problem aller Voraussicht nach nicht kleiner. Angesichts des anstehenden Bundestagswahlkampfs könnte es in Deutschland gar eine größere Dimension bekommen. Da ist eine Hoffnung nicht unberechtigt: Wie schön wäre es, wenn Computer die Welt von Falschmeldungen befreien könnten! Schließlich haben die Algorithmen unter anderem von Facebook Fakenews erst groß werden lassen. Doch während manche daran arbeiten, seriöse Quellen von unseriösen maschinell zu unterscheiden, warnen andere: das ist zu spät, so werden wir dem Phänomen nicht Herr. „Das Problem an seiner Quelle zu fassen ist in diesem Fall nicht die beste Strategie“, sagt Victoria Rubin, Associate Professor an der University of Western Ontario: dafür verbreiten sich Fakenews zu schnell. Zudem gibt es ständig neue Quellen und neue Webseiten, die Falschmeldungen produzieren – hat man eine identifiziert, gitb es bereits zehn neue.
Weiterlesen

Liebe und Sex mit Robotern

Spektrum.de, 22. Dezember 2016 – Link

Wie sieht unsere Zukunft mit Sexrobotern aus? Wissenschaftler streiten sich über mögliche negative Folgen der Technologie. Während manche gar ein Verbot fordern, setzen andere auf eine wissenschaftliche Durchleuchtung des Themas.

Es ist schon verrückt, was für einen Staub eine Konferenz mit vielleicht 200 Teilnehmern aufwirbeln kann. In London haben sich am 19. und 20. Dezember 2016 Wissenschaftler aus aller Welt getroffen, um sich mit dem Thema „Sex and Love with Robots“ zu beschäftigen. Wird es eines Tages Alltag sein, dass Menschen Sex mit Robotern haben? Wird es gesellschaftsfähig sein, einen maschinellen Lebenspartner zu geselligen Events auszuführen? Und wie wird sich das auf unser Zusammenleben auswirken? Die durchaus berechtigten Fragen der Philosophen, Soziologen, Informatiker und Psychologen gingen beinahe unter in der reißerischen Berichterstattung auf der einen Seite und in der Empörung, die das Thema auf der anderen Seite offenbar mit sich bringt.

Weiterlesen