Zurück zum Spüren

Die ZEIT, 22. Februar 2018 – Ausschnitt

Com­pu­ter­tech­nik for­dert Au­gen und Oh­ren, al­le an­de­ren Sin­ne lie­gen brach. Jetzt ma­chen For­scher di­gi­ta­le Wel­ten fühl­bar.

Ach, wä­re er doch Mu­si­ker ge­blie­ben! Wie rich­tig und wie falsch zu­gleich die­ser Wunsch ist, das zeigt sich in die­sem schlich­ten In­for­ma­tik­la­bor zwi­schen Ka­beln und tech­ni­schen Ge­rä­ten. Brent Gil­le­spie, Ma­schi­nen­bau-Pro­fes­sor der Uni­ver­si­ty of Mi­chi­gan und ge­ra­de für ein For­schungs­frei­se­mes­ter in Stutt­gart, sitzt vor ei­nem kom­pli­zier­ten me­cha­ni­schen Auf­bau. Er dreht hier und da vor­sich­tig an ei­ner Schrau­be, schlägt die wei­ße Tas­te am ei­nen En­de des Auf­baus an und be­ob­ach­tet ganz ge­nau, was das in der Ap­pa­ra­tur be­wirkt. Am an­de­ren En­de, ei­nen Me­ter ent­fernt, schlägt ein mit Filz über­zo­ge­nes Häm­mer­chen auf ei­ne Sai­te. »Stein­way Ac­tion« steht auf ei­ner klei­nen Blech­ta­fel, dar­un­ter ei­ne Wid­mung. Die­se Tas­te, mit­samt der Me­cha­nik aus ei­nem Kon­zert­flü­gel aus­ge­baut, ist das Ge­schenk ei­nes be­freun­de­ten Mu­sik­pro­fes­sors. Weiterlesen

Schau mir in die Seele

Berliner Zeitung, 20. Februar 2018

Um gut mit Menschen zusammen arbeiten zu können, sollten Roboter der Zukunft die Emotionen ihres menschlichen Gegenübers verstehen und sich anpassen können. Forscher stellen sich entsprechenden Hürden.

Der Mann auf dem Trainingsrad tritt in die Pedale und strengt sich mächtig an, doch plötzlich verzieht er das Gesicht. „Du wirkst als hättest du Schmerzen“, sagt sein Trainer und schaut ihn mitfühlend an, „versuche langsamer zu treten.“ Der Mann tut das, und der Trainer sagt lächelnd: „Viel besser.“ So weit, so normal. Doch der Trainer ist kein Mensch, sondern ein Avatar. Er steht seinem Schützling auf einem großen Bildschirm gegenüber und spürt auf wundersame Weise, wie es diesem geht.

Weiterlesen

Googeln in Zeiten des Wahlkampfs

Süddeutsche Zeitung, 21. September 2017

Internetsuchmaschinen zeigen uns nur einen kleinen Teil aller verfügbaren Informationen an. Das ist eine große Verantwortung. Gefährlicher als die Personalisierung ist allerdings Googles Autocomplete Tool.

Was wäre, wenn ich eine untenschlossene Wählerin wäre? „Merkel“ tippe ich an einem Morgen im September an meinem Computer in die Suchmaschine Google, und Google rät, was ich wohl suche. Kaum habe ich das „l“ getippt, erscheinen die Empfehlungen „news“, „Rosenheim“ und „muss weg“ als Ergänzung. „Autocomplete“ heißt diese Funktion: die Suche wird automatisch vervollständigt abhängig davon was Google glaubt, was ich persönlich suche. Würde ich als unentschlossene Wählerin „muss weg“ anklicken und mich von den dargeboteten Ergebnissen beeinflussen lassen? An erster Stelle ein Beitrag der rechtspopulistischen Zeitschrift „Compact“, an dritter Stelle eine rechte Facebook-Gruppe namens „Merkel muss weg“, danach wieder Compact, dann Focus, dann eine rechte Anti-Merkel-Twittergruppe und schnell die AfD.

Weiterlesen

Kamera aus!

Süddeutsche Zeitung am Wochenende, 29. Juli 2017

In Bildern stecken mehr Informationen, als sich die meisten Menschen vorstellen können. Angesichts der wachsenden Zahl an Kameras tüfteln Forscher an Konzepten, um den Schutz der Privatsphäre in der Technik zu verankern. Doch auch das hat seine Tücken.

Die Künstliche Intelligenz stellt fest: Im Restaurant Zunfthaus zur Waag im historischen Zentrum Zürichs sitzen 35 Gäste, weitere 24 genießen die Sonne unter den Sonnenschirmen, darunter eine ungewöhnlich große Gruppe. Im Haus sind aktuell acht Bewohner, der erste hat es heute um 6.45 Uhr verlassen, normalerweise kehren die letzten gegen 23 Uhr zurück. Die Fassade ist relativ frisch gestrichen, doch es zeigen sich erste kleine Schäden unterhalb eines Fensters im dritten Stock. Durch die oberen Fenster fällt am meisten Licht, zwei davon sind geöffnet, in den mittleren spiegelt sich das Haus gegenüber. Es finden sich kaum freie Parkplätze in der Nähe, und am benachbarten Paradeplatz sammeln sich auffällig viele Menschen. Vielleicht sollte man dort eine Polizeistreife vorbeischicken, nur sicherheitshalber, und vielleicht sollte man der Mutter des Kindes, das sein Zimmer im vierten Stock zur Sonnenseite hat, zu einer Verdunkelung raten, denn das System hat berechnet, dass der Raum um diese Zeit stark aufheizt, da das Fenster mit seiner Größe von 2,2 mal 1,5 Meter und dieser Ausrichtung viel Sonne hereinlässt. Weiterlesen

Künstliche Intelligenz ist wichtig – aber das hat mit mir nichts zu tun

Magazin t3n Nr 48, Drittes Quartal 2017

Verschlafen die deutschen Unternehmen die Chancen der künstlichen Intelligenz? Laut aktueller Studien sind sie kaum vorbereitet. Das zeigen auch Einblicke in die Praxis. Startups sind da deutlich weiter – und übertreffen selbst die großen ­KI-Pioniere.

Bist du schwul, depressiv oder in Kauflaune? Sorgst du dich um deine Kinder, bist du ein aggressiver Zeitgenosse oder hast du gar eine Ehekrise? Das alles – so heißt es – weiß die künstliche Intelligenz über uns: Sie kennt uns besser als unsere Freunde uns kennen, weiß mehr, als unser Partner über uns. Das zumindest behaupten jene, die von solchen Entwicklungen profitieren: Immer mal wieder geistern Studien durch die Medien, die beispielsweise aus Twitterdaten vorhersagen, ob jemand eine psychische Krankheit entwickelt oder aus Facebook-Posts die Persönlichkeit berechnen, für deren Definition Psychologen fünf Fragebögen und sechs Monate persönliche Gespräche benötigen. Weiterlesen

Google und die Frau am Herd

Die ZEIT, 13. Juli 2017

Künstliche Intelligenz interpretiert die Welt auf ihre eigene Weise – und zementiert damit Vorurteile, Rassismus und Rollenklischees. Das führt die Suche nach der Formel für Gerechtigkeit ad absurdum.

Dieser Emmanuel Macron! Dankt am Abend seines Wahlsieges seinen „amerikanischen Mitbürgern“ für ihr Vertrauen! Wer Macrons Tweet vom 7. Mai las, der musste sich wundern – jedenfalls hierzulande und in Amerika. In der automatischen Übersetzung, die Twitter deutschen Nutzern anbot, war von „tiefer Dankbarkeit“ gegenüber den „amerikanischen Mitbürgern“ die Rede. Auch in den USA wurde Macrons Anrede „mes chers compatriotes“ als „my fellow americans“ übersetzt. Dabei bedeutet compatriotes im Französischen schlicht „Mitbürger“. Über Amerikaner hatte Macron kein Wort verloren. Wie Twitter nur darauf kam? Weiterlesen

Künstliche Intelligenz mit handfesten Vorurteilen

Spektrum der Wissenschaft/spektrum.de, 13. April 2017 – Link

In der Computerlinguistik nimmt eine Debatte über die Ethik des Faches an Fahrt auf: zwei aktuelle Veröffentlichungen zeigen, dass Algorithmen Vorurteile von Menschen übernehmen und diese zementieren. Wie kann sich die Gesellschaft davor schützen? Die Forscher haben verschiedene Ansätze – aber noch keine Lösung.

Wenn eine künstliche Intelligenz die menschliche Sprache aus repräsentativen Texten der Menschheit lernt, entwickelt sie Vorurteile. Schließlich stecken diese bereits in den Trainingsdaten, wenn auch häufig wenig offensichtlich. Die Diskussion darum, wie die Forschung mit dieser Tatsache umgehen soll, nimmt gerade an Fahrt auf und hat nun durch eine aktuelle Studie im Magazin „Science“ neue Nahrung bekommen: Forscher um die Informatikerin Aylin Caliskan von der Princeton University zeigen darin, dass entsprechende Algorithmen die gleichen impliziten rassistischen und sexistischen Stereotypen reproduzieren wie Menschen. Sie erzielten mit ihrem Messverfahren vergleichbare Ergebnisse wie Neurowissenschaftler, die unbewusste Vorurteile und Wertvorstelleungen bei Menschen mittels des Implicit Associations Test (IAT) untersucht hatten. Weiterlesen

Dunkle Algorithmen

Süddeutsche Zeitung Wochenende, 25. März 2017 – Link

Wenn Computer lernen, den Sinn menschlicher Sprache zu verstehen, bringt das Risiken mit sich. Erste Anwendungen zeigen, wie massiv der Eingriff in unser Leben sein kann – und die betroffenen Forscher beginnen, über die Ethik ihrer Disziplin nachzudenken.

Eine Schlagzeile im Wall Street Journal hat Michael Strube am 9. Juni 2013  die Augen geöffnet. „Wie die NSA so schnell so schlau wurde“ stand dort: Wie konnte der größte Auslandsgeheimdienst der USA nicht nur massenhaft Daten sammeln, sondern vor allem diese Masse auch auswerten, insbesondere Sprachdaten aus Emails und Telefonaten? Der 51jährige Computerlinguist vom Heidelberger Institut für Theoretische Studien war auf einer wissenschaftlichen Konferenz in den USA, die Zeitung lag auf dem Frühstückstisch im Hotel. Zehn Tage nach den Snowden-Enthüllungen bewegte das die Welt – und insbesondere Strube. Schließlich wurde im Artikel detailliert erläutert, wie seine Disziplin die Spione maßgeblich stark gemacht hatte: Natural Language Processing (NLP) lehrt Computern, menschliche Sprache zu verstehen. Die meisten Menschen haben mit dieser Technologie zu tun, wenn sie Dienste wie Google Translate verwenden oder ihr Smartphone per Sprachbefehlen bedienen. Die dunkle Seite ist weniger offensichtlich: „Der Öffentlichkeit ist zwar bekannt, dass die Geheimdienste auf Metadaten zugreifen“, sagt Strube, also auf Daten wie Absender oder Betreff einer Mail. „Aber die Wenigsten wissen, wie gut wir unstrukturierte Daten analysieren können.“ Unstrukturiert, das ist aus Sicht der Informatik beispielsweise die menschliche Sprache, die für Maschinen lange eine undurchsichtige Sache war. Und auch wenn man allein aus den Metadaten von Emails viele Rückschlüsse auf eine Person und ihr Umfeld schließen kann: wer den Inhalt automatisch auswerten kann, erfährt noch viel mehr.
Weiterlesen

Können Computer Lügen entlarven?

Spektrum.de/Spektrum der Wissenschaft, 17. Januar 2017 – Link

Aktuelle Aktivitäten gegen Fakenews konzentrieren sich vorallem darauf, unseriöse Quellen automatisch zu erkennen. Aber können Algorithmen Falschmeldungen an sich identifizieren? Es schien zeitweise so, als habe die Wissenschaft das schon zu den Akten gelegt. Aber eine Wette und ein Streit unter Forschern gibt neue Hoffnung.

Ende 2016 ächzte die Welt unter dem Problem der Fakenews – und 2017 wird das Problem aller Voraussicht nach nicht kleiner. Angesichts des anstehenden Bundestagswahlkampfs könnte es in Deutschland gar eine größere Dimension bekommen. Da ist eine Hoffnung nicht unberechtigt: Wie schön wäre es, wenn Computer die Welt von Falschmeldungen befreien könnten! Schließlich haben die Algorithmen unter anderem von Facebook Fakenews erst groß werden lassen. Doch während manche daran arbeiten, seriöse Quellen von unseriösen maschinell zu unterscheiden, warnen andere: das ist zu spät, so werden wir dem Phänomen nicht Herr. „Das Problem an seiner Quelle zu fassen ist in diesem Fall nicht die beste Strategie“, sagt Victoria Rubin, Associate Professor an der University of Western Ontario: dafür verbreiten sich Fakenews zu schnell. Zudem gibt es ständig neue Quellen und neue Webseiten, die Falschmeldungen produzieren – hat man eine identifiziert, gitb es bereits zehn neue.
Weiterlesen

Liebe und Sex mit Robotern

Spektrum.de, 22. Dezember 2016 – Link

Wie sieht unsere Zukunft mit Sexrobotern aus? Wissenschaftler streiten sich über mögliche negative Folgen der Technologie. Während manche gar ein Verbot fordern, setzen andere auf eine wissenschaftliche Durchleuchtung des Themas.

Es ist schon verrückt, was für einen Staub eine Konferenz mit vielleicht 200 Teilnehmern aufwirbeln kann. In London haben sich am 19. und 20. Dezember 2016 Wissenschaftler aus aller Welt getroffen, um sich mit dem Thema „Sex and Love with Robots“ zu beschäftigen. Wird es eines Tages Alltag sein, dass Menschen Sex mit Robotern haben? Wird es gesellschaftsfähig sein, einen maschinellen Lebenspartner zu geselligen Events auszuführen? Und wie wird sich das auf unser Zusammenleben auswirken? Die durchaus berechtigten Fragen der Philosophen, Soziologen, Informatiker und Psychologen gingen beinahe unter in der reißerischen Berichterstattung auf der einen Seite und in der Empörung, die das Thema auf der anderen Seite offenbar mit sich bringt.

Weiterlesen