Künstliche Intelligenz mit handfesten Vorurteilen

Spektrum der Wissenschaft/spektrum.de, 13. April 2017 – Link

In der Computerlinguistik nimmt eine Debatte über die Ethik des Faches an Fahrt auf: zwei aktuelle Veröffentlichungen zeigen, dass Algorithmen Vorurteile von Menschen übernehmen und diese zementieren. Wie kann sich die Gesellschaft davor schützen? Die Forscher haben verschiedene Ansätze – aber noch keine Lösung.

Wenn eine künstliche Intelligenz die menschliche Sprache aus repräsentativen Texten der Menschheit lernt, entwickelt sie Vorurteile. Schließlich stecken diese bereits in den Trainingsdaten, wenn auch häufig wenig offensichtlich. Die Diskussion darum, wie die Forschung mit dieser Tatsache umgehen soll, nimmt gerade an Fahrt auf und hat nun durch eine aktuelle Studie im Magazin „Science“ neue Nahrung bekommen: Forscher um die Informatikerin Aylin Caliskan von der Princeton University zeigen darin, dass entsprechende Algorithmen die gleichen impliziten rassistischen und sexistischen Stereotypen reproduzieren wie Menschen. Sie erzielten mit ihrem Messverfahren vergleichbare Ergebnisse wie Neurowissenschaftler, die unbewusste Vorurteile und Wertvorstelleungen bei Menschen mittels des Implicit Associations Test (IAT) untersucht hatten. Weiterlesen

Dunkle Algorithmen

Süddeutsche Zeitung Wochenende, 25. März 2017 – Link

Wenn Computer lernen, den Sinn menschlicher Sprache zu verstehen, bringt das Risiken mit sich. Erste Anwendungen zeigen, wie massiv der Eingriff in unser Leben sein kann – und die betroffenen Forscher beginnen, über die Ethik ihrer Disziplin nachzudenken.

Eine Schlagzeile im Wall Street Journal hat Michael Strube am 9. Juni 2013  die Augen geöffnet. „Wie die NSA so schnell so schlau wurde“ stand dort: Wie konnte der größte Auslandsgeheimdienst der USA nicht nur massenhaft Daten sammeln, sondern vor allem diese Masse auch auswerten, insbesondere Sprachdaten aus Emails und Telefonaten? Der 51jährige Computerlinguist vom Heidelberger Institut für Theoretische Studien war auf einer wissenschaftlichen Konferenz in den USA, die Zeitung lag auf dem Frühstückstisch im Hotel. Zehn Tage nach den Snowden-Enthüllungen bewegte das die Welt – und insbesondere Strube. Schließlich wurde im Artikel detailliert erläutert, wie seine Disziplin die Spione maßgeblich stark gemacht hatte: Natural Language Processing (NLP) lehrt Computern, menschliche Sprache zu verstehen. Die meisten Menschen haben mit dieser Technologie zu tun, wenn sie Dienste wie Google Translate verwenden oder ihr Smartphone per Sprachbefehlen bedienen. Die dunkle Seite ist weniger offensichtlich: „Der Öffentlichkeit ist zwar bekannt, dass die Geheimdienste auf Metadaten zugreifen“, sagt Strube, also auf Daten wie Absender oder Betreff einer Mail. „Aber die Wenigsten wissen, wie gut wir unstrukturierte Daten analysieren können.“ Unstrukturiert, das ist aus Sicht der Informatik beispielsweise die menschliche Sprache, die für Maschinen lange eine undurchsichtige Sache war. Und auch wenn man allein aus den Metadaten von Emails viele Rückschlüsse auf eine Person und ihr Umfeld schließen kann: wer den Inhalt automatisch auswerten kann, erfährt noch viel mehr.
Weiterlesen

Können Computer Lügen entlarven?

Spektrum.de/Spektrum der Wissenschaft, 17. Januar 2017 – Link

Aktuelle Aktivitäten gegen Fakenews konzentrieren sich vorallem darauf, unseriöse Quellen automatisch zu erkennen. Aber können Algorithmen Falschmeldungen an sich identifizieren? Es schien zeitweise so, als habe die Wissenschaft das schon zu den Akten gelegt. Aber eine Wette und ein Streit unter Forschern gibt neue Hoffnung.

Ende 2016 ächzte die Welt unter dem Problem der Fakenews – und 2017 wird das Problem aller Voraussicht nach nicht kleiner. Angesichts des anstehenden Bundestagswahlkampfs könnte es in Deutschland gar eine größere Dimension bekommen. Da ist eine Hoffnung nicht unberechtigt: Wie schön wäre es, wenn Computer die Welt von Falschmeldungen befreien könnten! Schließlich haben die Algorithmen unter anderem von Facebook Fakenews erst groß werden lassen. Doch während manche daran arbeiten, seriöse Quellen von unseriösen maschinell zu unterscheiden, warnen andere: das ist zu spät, so werden wir dem Phänomen nicht Herr. „Das Problem an seiner Quelle zu fassen ist in diesem Fall nicht die beste Strategie“, sagt Victoria Rubin, Associate Professor an der University of Western Ontario: dafür verbreiten sich Fakenews zu schnell. Zudem gibt es ständig neue Quellen und neue Webseiten, die Falschmeldungen produzieren – hat man eine identifiziert, gitb es bereits zehn neue.
Weiterlesen

Liebe und Sex mit Robotern

Spektrum.de, 22. Dezember 2016 – Link

Wie sieht unsere Zukunft mit Sexrobotern aus? Wissenschaftler streiten sich über mögliche negative Folgen der Technologie. Während manche gar ein Verbot fordern, setzen andere auf eine wissenschaftliche Durchleuchtung des Themas.

Es ist schon verrückt, was für einen Staub eine Konferenz mit vielleicht 200 Teilnehmern aufwirbeln kann. In London haben sich am 19. und 20. Dezember 2016 Wissenschaftler aus aller Welt getroffen, um sich mit dem Thema „Sex and Love with Robots“ zu beschäftigen. Wird es eines Tages Alltag sein, dass Menschen Sex mit Robotern haben? Wird es gesellschaftsfähig sein, einen maschinellen Lebenspartner zu geselligen Events auszuführen? Und wie wird sich das auf unser Zusammenleben auswirken? Die durchaus berechtigten Fragen der Philosophen, Soziologen, Informatiker und Psychologen gingen beinahe unter in der reißerischen Berichterstattung auf der einen Seite und in der Empörung, die das Thema auf der anderen Seite offenbar mit sich bringt.

Weiterlesen

Haben Maschinen Trumps Sieg verursacht? Unsinn!

Spektrum.de, 6. Dezember 2016 – Link

Ein Text über psychologische Profilbildung mittels Facebookdaten schreckt viele auf. Der Text beschreibt aber weder eine neue Technologie, noch ist seine Schlussfolgerung seriös, nach der Trump die Wahl dank Algorithmen gewonnen hat. Dennoch besteht kein Anlass sich zurück zu lehnen, kommentiert Eva Wolfangel.

Ist Bigdata schuld an Trump? Dieses Luder, diese gefährliche Technologie, das sieht ihr ähnlich! Sie bringt Unheil über die Welt – jetzt haben wir den Beweis! So oder ähnlich denken offenbar viele nach der Lektüre des Textes „Ich habe nur gezeigt, dass es die Bombe gibt“. Die vage Hoffnung, dass vielleicht doch nicht Menschen sondern Maschinen schuld sind am Wahlsieg des künftigen US-Präsidenten, scheint viele zu mobilisieren: der Text dreht derzeit so nachhaltig seine Runden in den sozialen Netzwerken, dass man meinen könnte, er verkünde revolutionäres. Das tut er aber nicht.
Weiterlesen

Echt nette Roboter

Süddeutsche Zeitung Wochenende, 29. Oktober 2016 – Link

Menschliches Handeln ist in weiten Teilen vorhersagbar. Roboter nutzen das erfolgreich, um soziales Verhalten zu imitieren. Aber wie echt ist diese berechnete Hilfsbereitschaft?

Der kleine Kerl bewegt seine Arme und folgt diesen Bewegungen mit großen Augen, als nehme er diese Arme zum ersten Mal wahr. Noch scheint der Weg weit zu sozialem Verhalten: Erst einmal geht es darum, den eigenen Körper zu erfassen und dessen Grenzen, um überhaupt verstehen zu können, dass es ein „Ich“ und ein „Du“ gibt. Bei jeder Bewegung des Arms scheint sich der Kleine zu fragen: „Bin das ich? Mache ich das?“ Er bewegt seine Gliedmaßen unermüdlich und scheinbar zufällig, er testet, welche Richtungen seine Gelenke zulassen. Er dreht den Kopf so weit er kann und schaut sich um. Mit der Zeit werden die Bewegungen gezielter. Er hat gelernt, wie weit sein Radius ist, welche Positionen er erreichen kann. Später, als er verstanden hat, wo der eigene Körper aufhört, kommt ein Mann und reicht ihm einen Ball. Der kleine Kerl will ihn haben, greift aber erst unbeholfen daneben. Aber auch darin wird er mit etwas Übung immer besser: die erste Interaktion funktioniert!
Weiterlesen

Die Grenzen der Künstlichen Intelligenz

spektrum.de, 3. Mai 2016Link

Der Sieg einer Googlesoftware über den Weltmeister im Brettspiel Go hat der Technologie der künstlichen Intelligenz gesellschaftlichen Auftrieb verschafft. Die Mühen der Ebene zeigen aber, dass die Algorithmen des maschinellen Lernens allerlei Fallen bergen – auch für ihre Entwickler.

Die Bank verweigert einen Kredit trotz bester Bonität, Amazon schlägt beharrlich Bücher vor, die man nie lesen würde, und der Ganzkörperscanner am Flughafen findet irgendetwas auffällig am eigenen Körper: das kann zwar keiner der freundlichen Beamten erklären, es zieht aber eine aufwendige Sicherheitskontrolle und einen Sprint zum Gate nach sich: Die Auswirkungen maschinellen Lernens kennt jeder aus dem Alltag- auch wenn die wenigsten wissen, dass dahinter Künstliche-Intelligenz-Algorithmen liegen. Im Unterschied zum Brettspiel Go, wo jeder sehen kann, wer gewonnen hat, sind die meisten anderen Anwendungsgebiete weniger transparent: liegt der Schufa-Algorithmus falsch oder ist der Betroffene wirklich nicht kreditwürdig?

Je weitreichender die Einsatzgebiete solcher Algorithmen sind, umso gefährlicher sind  mögliche Fehlschlüsse oder Ungenauigkeiten solcher Systeme: Das kann jeder sofort nachvollziehen wenn es beispielsweise ums autonome Fahren oder um die Steuerung automatischer Waffensysteme geht. Experten glauben nicht daran, dass diese Fehler gänzlich auszumerzen sind. Sie liegen im System – und in der Anwendung: denn es ist längst kein Allgemeingut unter Informatikern, welcher Algorithmus für welche Anwendung geeignet ist. Dazu kommen Annahmen, die im Vorfeld getroffen werden müssen, und bei vielen Algorithmen die Unmöglichkeit, das Ergebnis auf die Richtigkeit oder statistische Relevanz hin zu überprüfen. Weiterlesen

Die perfekte Erinnerung

DIE ZEIT, 21. Januar 2016

Lässt sich alles, was wir erleben, digital speichern? Informatiker arbeiten daran. Wie ich Teil eines Experiments wurde.

Der Cyborg, der mir im Frühling 2013 in einem Stuttgarter Cafe gegenüber sitzt, sieht aus wie ein ganz normaler Mitvierziger mit leichten Geheimratsecken, in Hemd und Jeans. Nur sein türkiser Brillenbügel ist auffällig breit. Am vorderen Ende ist eine kleine Kamera eingearbeitet und ein Prisma. Seine rechte Hand steckt in der Hosentasche.

Thad Starner ist nicht allein. Er hat sein »System« bei sich. Das erkennt man an seiner Googlebrille und einer nahezu unsichtbaren rechteckigen Spiegelung auf seiner Netzhaut. In seiner Hosentasche hat er eine Fünffinger-Tastatur. Starner ist Informatikprofessor am Georgia Institute of Technology und ein Pionier der Erforschung anziehbarer Computer (wearable computing). Fast sein halbes Leben lang, seit mehr als 20 Jahren, trägt er wechselnde Versionen eines Prototypen am Körper. Er sieht sein »System« als Erweiterung seines Gehirns.

Weiterlesen

DebateExplorer: Die Mühen der Ebene

Ich sollte glücklich sein! Ich trainiere eine Software, die den Journalisten der Zukunft die Arbeit erleichtern soll. Die investigative Recherche am Leben erhält. Ich arbeite voll am Puls der Zeit – wer würde sich nicht wünschen, auch mal eine künstliche Intelligenz mit eigenem Hirnschmalz anzureichern?

Aber manchmal holen mich die Mühen der Ebene ein: Das Bürokratendeutsch der Politiker beispielsweise. Wird eine Maschine je verstehen können, was diese vor lauter Rhetorik wirklich meinen? Sie wiederholen die Argumente der Gegenseite, bevor sie verklausuliert zu ihren eigenen Standpunkten kommen, sie verwenden ohne Ende doppelte Verneinungen, Schachtelsätze – werden meine Annotationen dem Algorithmus wirklich helfen? Weiterlesen

Wie sichern wir unsere Unberechenbarkeit?

spektrum.de/Spektrum der Wissenschaft, 1. Oktober 2015 – Link

Brauchen wir neue gesellschaftliche Konventionen angesichts der zunehmenden Automatisierung? Forscher diskutieren, wie unsere Werte im digitalen Umbruch gesichert werden können. Auch der Mensch muss sich dabei neu definieren.

„Entschuldigen Sie bitte, wo ist denn hier die Liste der Dinge, die nicht automatisiert werden sollen?“ Wenn es nach dem Zukunftsforscher Alexander Mankowsky geht, ist das die erste Frage, die man den Verantwortlichen eines Automatisierungsprojektes jeder Art stellen sollte – sei das ein autonomes Auto oder eine Smart City. „Die schauen dann meistens ganz verblüfft“, sagt Mankowsky und grinst. Dabei findet er diese Frage gar nicht abwegig. Der Philosoph interpretiert dieses Bewusstsein über das nicht-Automatisierbare als Indikator dafür, inwiefern die menschliche Freiheit mitgedacht wird. Soziale Wahrnehmung lasse sich nicht automatisieren, und auch der Mensch der Zukunft sollte die Freiheit zur Willkür haben: Spontane Aktivitäten, die eine Maschine nicht vorhersehen kann. Und trotzdem nicht unter die Räder kommen. Weiterlesen