Mein Leben als Avatar

Hervorgehoben

Magazin Reportagen Nr. 30, September 2016 – nominiert für den Reporterpreis!

Meine Reportage über unser virtuelles Leben der Zukunft, die weltweit erste Reportage aus der virtuellen Realität, ist für den Deutschen Reporterpreis in der Kategorie „Beste Reportage“ nominiert. Aus diesem Anlass hier schon der gesamte Text über meine Leben dort in dieser Parallelwelt, die sich fast so echt anfühlt wie die andere, die echte Welt. Mit allen positiven und negativen Begleiterscheinungen.

Noch wirkt alles ganz harmlos. Ein Sonnenstrahl landet direkt vor meinen Füßen, er hat eine weite Reise hinter sich, auch wenn es ihn eigentlich gar nicht gibt. Der Sonnenstrahl hat sich seinen Weg durch dicke Wolken vor dem Fenster gebahnt,  er ist gereist auf winzigen Regentropfen von weit oben aus dem Himmel bis hier zu mir auf den Parkettboden. Warm und weich kitzelt er jetzt meinen Fuß. Ich schaue mich um: der Raum ist würfelförmig, an drei Seiten begrenzt durch riesige Glasfronten. Die vierte Wand ist fast in der gesamten Breite ausgefüllt von einem riesigen Display, auf dem ein Film läuft. Einige Männer stehen davor und lachen.

Wo bin ich? Ich bin in der Zukunft. Und zugleich bin ich im Hier und Jetzt. Ich bin in der Realität. Und zugleich in etwas gänzlich anderem, etwas von der Qualität eines Traumes. Ich bin in der Virtuellen Realität. Es heißt, die virtuelle Realität sei unsere Zukunft und dass wir uns in zehn oder zwanzig Jahren hier begegnen werden statt weite Reisen anzutreten zu unseren Liebsten. Noch sind nur wenige Menschen unterwegs in dieser Welt, die es eigentlich nicht so richtig gibt, und die auf mich aber in diesem Moment verdammt echt wirkt. Weiterlesen

DebateExplorer: Unser Workshop auf der Wissenswerte

Blog über unser Datenjournalismus-Projekt DebateExplorer, November 2016

Auf der Wissenswerte, der Konferenz für Wissenschaftsjournalismus, präsentieren wir in einem Werkstattgespräch am Dienstag, 29.11., erste Ergebnisse unseres DebateExplorers: Können Maschinen Semantik verstehen, können sie sogar angesichts der verklausulierten Sprache der Politiker Muster in Bundestagsdebatten finden und uns Journalisten auf Auffälligkeiten stoßen, die wir ohne maschinelle Unterstützung nicht gefunden hätten? Unser Projekt auf der Basis der Förderung der Volkswagenstiftung im Projekt „Wissenschaft und Datenjournalismus“ erkundet seit Januar 2016 die Grenzen der Wissenschaft und versucht, sie zu verschieben. Wir wollen mit euch unsere Erfolge und die künftigen Herausforderungen diskutieren.

Unser Tool soll gerade in Zeiten knapper Mittel im Journalismus dafür sorgen, dass investigative Recherche nicht nur den großen Verlagen vorbehalten bleibt oder angesichts des Aufwands ganz ausstirbt. Wir nutzen öffentlich zugängliche Texte wie Bundestagsdebatten, Interviews und Artikel, um mittels automatischer Texterkennung aufzudecken, wie Debatten beeinflusst werden. Die Herausforderung dabei: die Algorithmen sollen nicht nur wortgleiche Passagen finden, sondern auch inhaltliche Gemeinsamkeiten, die verschieden formuliert sind. Dafür trainieren wir sie gemeinsam: JournalistInnen und ComputerlinguistInnen. Weiterlesen

DebateExplorer: Unser Baby wächst

Blog über unser Datenjournalismusprojekt DebateExplorer, Oktober 2016

Unser Baby spricht die ersten eigenen Worte! Genau genommen findet es die ersten eigenen Worte, nämlich Debatten rund um die Hotelsteuer. Und unser kleiner Joe zeigt, dass er tatsächlich erstaunlich viel verstanden hat. Mehr, als ich mir in den mühsamen Zeiten der Annotationen hätte träumen lassen angesichts der komischen Sprache der Politiker.

„Wir hätten auch eine superintelligente Suchmaschine bauen können“, sagt Andre. Aber wir haben uns für die künstliche Intelligenz entschieden, auch wenn unklar war und sicher teilweise noch ist, ob eine Maschine so komplexe Annotationen erlernen kann, wie sie sich beispielsweise aus Bundestagsdebatten ergeben. Dafür haben wir so die Chance, Debatten vollständiger zu analysieren und auch jene Textstellen zu finden, die unerwartete Begriffe verwenden und gewohnte Begriffe auslassen. An diesen Grenzen der Forschung zu arbeiten ist aufregend und ein Risiko, weil man nie weiß, ob es am Ende funktioniert. Aber heute haben wir einen Teilerfolg errungen.
Weiterlesen

Hat die Virtuelle Realität ein Problem mit sexueller Belästigung?

Die ZEIT, 8. September 2016

(aus rechtlichen Gründen darf dieser Artikel hier nicht komplett erscheinen. Wer nach dieser Leseprobe Lust auf mehr hat, kann in der aktuellen ZEIT weiterlesen)

Soziale Interaktion in der virtuellen Realität wird als Zukunftsvision gehandelt. Aber die junge Technologie hat ein Problem mit sexuellen Übergriffen. Scheitert sie daran?

Hier stimmt etwas nicht. Schon aus dem Augenwinkel sehe ich, wie dieser Mann aus der Ecke des Raumes auffallend zielstrebig auf mich zukommt. Ich bin zum ersten Mal hier, habe mich gerade eben hierher gebeamt aus der anderen, der echten Welt, indem ich ein Virtual-Reality-Headset und Kopfhörer aufgesetzt und damit meinen physischen Körper in meiner Wohnung zurückgelassen habe. Ich habe Controller, die ich in dieser dreidimensionalen anderen Welt um mich herum wie Hände benutzen kann. Es ist, als wäre mein Geist an einen weit entfernten Ort gereist, wo er einen neuen Körper bezogen hat: einen Avatar in AltspaceVR, einem Treffpunkt in der Virtuellen Realität.

Eigentlich würde ich mich gerne diesem verrückt echten Gefühl hingeben, das mich sofort überfällt: Ich bin eingetaucht in eine komplette Welt, drehe mich um mich selbst, gehe ein paar Schritte durch den großen hellen Raum zur Terrassentür, vor der Vögel zwitschern und Grillen zirpen. Ein Bach plätschert neben dem Haus. Eigentlich würde ich jetzt gerne diese andere Welt erkunden, die friedliche Atmosphäre genießen mit den anderen Leuten, die in Grüppchen draußen in der Dämmerung unter den Bäumen stehen und plaudern. Eigentlich würde ich gerne erspüren, was es mit dieser „Social VR“ auf sich hat: die soziale Interaktion in der Virtuellen Realität.

Eigentlich. Weiterlesen

Algorithmen: Die unsichtbaren Lenker unseres Lebens

Berliner Zeitung, 3. September 2016

Im Hintergrund entscheiden Computer viele Dinge in unserem alltäglichen Leben. Das bringt nicht nur Vorteile mit sich.

Die Bank verweigert einen Kredit trotz bester Bonität, Amazon schlägt beharrlich Bücher vor, die man nie lesen würde und der Ganzkörperscanner am Flughafen findet irgendetwas auffällig am eigenen Körper: das kann zwar keiner der freundlichen Beamten erklären, es zieht aber eine aufwendige Sicherheitskontrolle und einen Sprint zum Gate nach sich: Das alles sind die Folgen von Computerentscheidungen, die auf der Grundlage von Algorithmen getroffen wurden. Jeder kennt sie aus dem Alltag, aber die wenigsten machen sich bewusst, dass dahinter Rechenvorschriften liegen, die unser Leben immer mehr bestimmen. Drei Beispiele aus dem Alltag, die gleichzeitig auch die Probleme beschreiben:

Weiterlesen

Machen uns Navis dumm?

Spektrum.de/Spektrum der Wissenschaft, 6. September 2016pdf

Manche Forscher sind besorgt, dass die Nutzung von GPS & Co unser Gehirn verändert und wir unsere Orientierungsfähigkeit verlieren. Was ist dran?

Wer sich verfährt oder verläuft, muss nicht nur Umwege in Kauf nehmen. Im Extremfall kann er daran sterben. Das kommt in manchen Gegenden in der Tat immer häufiger vor, so dass diese Art zu sterben nun einen eigenen Namen bekommen hat: „Death by GPS“ nennen es die Ranger des Nationalparks Death Valley. Wer hier die Orientierung verliert und länger nicht gefunden wird, kann  wegen der großen Hitze schnell dehydrieren. Und das scheint im Zeitalter der Navigationsgeräte häufiger vorzukommen. Aus den USA erreichen uns immer wieder besonders krasse Geschichten von Menschen, die ihrem Navi gefolgt sind, auch wenn es Richtungen oder Straßen vorgeschlagen hat, die ganz offensichtlich falsch waren und sich damit in ersnthafte Gefahr begeben haben. Aber auch in Europa hört man immer wieder Geschichten von Menschen, die sehenden Auges beispielsweise in einen See fahren, weil ihr Navi behauptet, es handle sich um eine Straße oder andere, die alle Warnschilder auf unfertigen Brücken ignorieren und ins Meer stürzen – oder die schlicht zehn Stunden in die falsche Richtung fahren, bevor sie Verdacht schöpfen.

Machen Navis dumm? Die Frage mag provokativ sein, aber in der Tat mahnen Psychologen und Hirnforscher immer häufiger an, dass unser Gehirn auch Dinge verlernen kann (ohne dass wir dafür gleich in Gräben fahren müssen). Selbst der einstige Präsident des Royal Institutes of Navigation, das die Navigation technisch voranbringen will, Roger Mc Kinley warnte kürzlich in nature (http://www.nature.com/news/technology-use-or-lose-our-navigation-skills-1.19632) „Automatische Wegfindung untergräbt unsere natürlichen Fähigkeiten.“ Aber wie natürlich ist unser Orientierungssinn? Verlieren wir tatsächlich evolutionäre Fähigkeiten, weil wir Navis benutzen? Weiterlesen

DebateExplorer: Unsere Datenbasis wächst – und mit ihr die Herausforderungen

Blog über unser Datenjournalismus-Projekt Debate Explorer, August 2016

So gruselig der aktuelle Stuttgart-Tatort ist, in dem eine Künstliche Intelligenz unkontrollierbar wird, so sehr wünsche ich mir, wir hätten eine Maschine, die uns ein bisschen besser versteht! Wer mit Sprachdaten arbeitet und hofft, dass uns Journalisten die Automatisierung ein wenig Arbeit abnimmt, staunt nur ob der Ankündigung der ARD: „Der Tatort HAL spielt in der nahen Zukunft, die vielleicht schneller Gegenwart ist, als wir erwarten.“ Hach, wir arbeiten an dieser nahen Zukunft, die mir gerade doch wieder etwas weiter weg erscheint.

Zu gerne würde ich unserer Maschine zurufen: Versteh mich doch, es geht um Vorratsdatenspeicherung! Aber die Wortwolke in unserer Topicsuche, die mir helfen soll, ein Thema möglichst vollständig zu finden, ist ziemlich breit geworden: in ihrem Zentrum stehen nach wie vor Begriffe wie Datenschutz und Internet. Aber seit wir unsere Daten um Spiegel-Online-Artikel erweitert haben, bekomme ich eine breite Masse an Vorschlägen, die irgendwie auch in diesen Thementopf gehören aber mit Vorratsdatenspeicherung zu tun haben. Weiterlesen

Achtung, Kamera im Anflug!

Die ZEIT, 28. Juli 2016

Drohnenpiloten stoßen immer wieder auf harsche Ablehnung in der Öffentlichkeit. Die Regulierung ist unübersichtlich, uneinheitlich und bisweilen überraschend.

Sie treffen auf einem Feldweg aufeinander, der alte Mann mit dem Stock und der Schüler mit der Drohne: Ein weißer Quadrocopter des Marktführers DJI, kaum größer als ein Schuhkarton, eine Phantom 2, heute fast schon ein Oldtimer. Der Schüler hat dafür vor knapp drei Jahren mehr als 1000 Euro gezahlt und übt einen besonderen Flugmodus. „Da kommt der alte Mann auf mich zugehumpelt, schubst mich und schreit: Hol das Ding da sofort runter!“ Noch Wochen danach ist Robert die Empörung anzuhören. „Das darf der doch nicht, oder?“ fragt er. „Das darf ich doch, oder?“ Normalerweise hätte sich der 17-jährige Schüler an den Rechner gesetzt und Argumente gesammelt. Gegoogelt, was er als Drohnenpilot darf. Aber an diesem Thema ist er gescheitert. „Im Netz widersprechen sich alle.“ Deshalb hat sich der junge Mann mit den langen blonden Haaren von seinen Eltern heute von Karlsruhe nach Abtsteinach bei Mannheim fahren lassen zur „Grundlagenschulung Multikopter“.

Darf ich das? Bevor Robert seine Frage beantwortet bekommt, muss er sich durch Fachbegriffe, Luftfahrtkarten und Gesetzestexte wühlen. Der Kurs, das wird in den ersten Minuten klar, ist keiner, in dem junge Männer mit ihren neuesten Fluggeräten auf einer Wiese spielen und prahlen können. Das Luftverkehrsgesetz, die Regeln der internationalen Zivilluftfahrtorganisation, Sonderlufträume, Flugbeschränkungsgebiete, das Bundesdatenschutzgesetz und nicht zuletzt einen Flugwetterbericht – all das müssen Daniel Schmitts Schüler zu rate ziehen, um zu klären, ob Robert auf diesem Feldweg fliegen durfte. Den Kursteilnehmern fliegen die Fachbegriffe nur so um die Ohren. Im Bürokratendeutsch heißt Roberts Phantom „unbemanntes Luftfahrtsystem“ oder auch „Modellflugzeug“, und das wiederum hängt davon ab, was der junge Mann damit machen will. „Fliegen, schöne Bilder machen“, sagt der Schüler Schulter zuckend. Aber da fängt das Problem schon an: Ist „schöne Bilder machen“ noch ein privates Vergnügen oder macht sein Hobby Robert zum kommerziellen Piloten? Weiterlesen

Lässt sich der nächste Einbruch berechnen?

spektrum.de/Spektrum der Wissenschaft, 28. Juni 2016 – pdf

Predictive Policing etabliert sich in Deutschland. Allerdings fehlen belastbare Studien, die den Erfolg der vorhersagenden Polizeiarbeit belegen. Während Kritiker fürchten, dass zu viele Daten verwendet werden könnten, zeigen erste Erfahrungen: zu viele Daten verschlechtern die Vorhersage.

Das Polizeiauto parkt vor der Haustür eines Mehrfamilienhauses, der Beamte steigt aus und steht unschlüssig auf der Straße. Etwas ratlos schaut er über den Gartenzaun, schiebt einen Busch beiseite, lugt dahinter und reckt seinen Hals, um über den Fahrradschuppen hinwegsehen zu können. „Was machst du da?“, fragen ihn schließlich Kinder, die auf der Straße spielen. „Ein Computerprogramm hat vorhergesagt, dass hier in der Nähe bald eingebrochen werden könnte“, sagt der Beamte und zuckt ratlos mit den Schultern. „Natürlich nicht genau in Ihrem Haus“, ergänzt er, als er die erschrockenen Blicke der umstehenden Mütter sieht. Mit 70 prozentiger Wahrscheinlichkeit würden die Einbrecher aber in den nächsten Tagen in diesem Wohnviertel zuschlagen. Da zucken auch die Mütter mit den Schultern: Ja, dass hier viel eingebrochen wird, das wussten sie schon. Braucht man dafür einen Computer?

Szenen wie diese kürzlich in Stuttgart beobachtete dürften sich derzeit gehäuft in deutschen Wohngebieten abspielen. In verschiedenen Bundesländern, unter anderem Baden-Württemberg und Bayern gibt es Pilotversuche mit Predictive Policing, vorhersagender Polizeiarbeit, andere Bundesländer wie Brandenburg prüfen den Einsatz gerade. Der Computer soll dabei die Erfahrung langjähriger Polizisten ersetzen und erweitern, die im Laufe ihrer Laufbahn ein „Bauchgefühl“ dafür entwickeln, wo oft zugeschlagen wird, manche nennen es auch Intuition. Weiterlesen

Die Grenzen der Künstlichen Intelligenz

spektrum.de, 3. Mai 2016Link

Der Sieg einer Googlesoftware über den Weltmeister im Brettspiel Go hat der Technologie der künstlichen Intelligenz gesellschaftlichen Auftrieb verschafft. Die Mühen der Ebene zeigen aber, dass die Algorithmen des maschinellen Lernens allerlei Fallen bergen – auch für ihre Entwickler.

Die Bank verweigert einen Kredit trotz bester Bonität, Amazon schlägt beharrlich Bücher vor, die man nie lesen würde, und der Ganzkörperscanner am Flughafen findet irgendetwas auffällig am eigenen Körper: das kann zwar keiner der freundlichen Beamten erklären, es zieht aber eine aufwendige Sicherheitskontrolle und einen Sprint zum Gate nach sich: Die Auswirkungen maschinellen Lernens kennt jeder aus dem Alltag- auch wenn die wenigsten wissen, dass dahinter Künstliche-Intelligenz-Algorithmen liegen. Im Unterschied zum Brettspiel Go, wo jeder sehen kann, wer gewonnen hat, sind die meisten anderen Anwendungsgebiete weniger transparent: liegt der Schufa-Algorithmus falsch oder ist der Betroffene wirklich nicht kreditwürdig?

Je weitreichender die Einsatzgebiete solcher Algorithmen sind, umso gefährlicher sind  mögliche Fehlschlüsse oder Ungenauigkeiten solcher Systeme: Das kann jeder sofort nachvollziehen wenn es beispielsweise ums autonome Fahren oder um die Steuerung automatischer Waffensysteme geht. Experten glauben nicht daran, dass diese Fehler gänzlich auszumerzen sind. Sie liegen im System – und in der Anwendung: denn es ist längst kein Allgemeingut unter Informatikern, welcher Algorithmus für welche Anwendung geeignet ist. Dazu kommen Annahmen, die im Vorfeld getroffen werden müssen, und bei vielen Algorithmen die Unmöglichkeit, das Ergebnis auf die Richtigkeit oder statistische Relevanz hin zu überprüfen. Weiterlesen