Google und die Frau am Herd

Hervorgehoben

Die ZEIT, 13. Juli 2017

Künstliche Intelligenz interpretiert die Welt auf ihre eigene Weise – und zementiert damit Vorurteile, Rassismus und Rollenklischees. Das führt die Suche nach der Formel für Gerechtigkeit ad absurdum.

Dieser Emmanuel Macron! Dankt am Abend seines Wahlsieges seinen „amerikanischen Mitbürgern“ für ihr Vertrauen! Wer Macrons Tweet vom 7. Mai las, der musste sich wundern – jedenfalls hierzulande und in Amerika. In der automatischen Übersetzung, die Twitter deutschen Nutzern anbot, war von „tiefer Dankbarkeit“ gegenüber den „amerikanischen Mitbürgern“ die Rede. Auch in den USA wurde Macrons Anrede „mes chers compatriotes“ als „my fellow americans“ übersetzt. Dabei bedeutet compatriotes im Französischen schlicht „Mitbürger“. Über Amerikaner hatte Macron kein Wort verloren. Wie Twitter nur darauf kam? Weiterlesen

Können Computer Lügen entlarven?

Spektrum.de/Spektrum der Wissenschaft, 17. Januar 2017 – Link

Aktuelle Aktivitäten gegen Fakenews konzentrieren sich vorallem darauf, unseriöse Quellen automatisch zu erkennen. Aber können Algorithmen Falschmeldungen an sich identifizieren? Es schien zeitweise so, als habe die Wissenschaft das schon zu den Akten gelegt. Aber eine Wette und ein Streit unter Forschern gibt neue Hoffnung.

Ende 2016 ächzte die Welt unter dem Problem der Fakenews – und 2017 wird das Problem aller Voraussicht nach nicht kleiner. Angesichts des anstehenden Bundestagswahlkampfs könnte es in Deutschland gar eine größere Dimension bekommen. Da ist eine Hoffnung nicht unberechtigt: Wie schön wäre es, wenn Computer die Welt von Falschmeldungen befreien könnten! Schließlich haben die Algorithmen unter anderem von Facebook Fakenews erst groß werden lassen. Doch während manche daran arbeiten, seriöse Quellen von unseriösen maschinell zu unterscheiden, warnen andere: das ist zu spät, so werden wir dem Phänomen nicht Herr. „Das Problem an seiner Quelle zu fassen ist in diesem Fall nicht die beste Strategie“, sagt Victoria Rubin, Associate Professor an der University of Western Ontario: dafür verbreiten sich Fakenews zu schnell. Zudem gibt es ständig neue Quellen und neue Webseiten, die Falschmeldungen produzieren – hat man eine identifiziert, gitb es bereits zehn neue.
Weiterlesen

Algorithmen: Die unsichtbaren Lenker unseres Lebens

Berliner Zeitung, 3. September 2016

Im Hintergrund entscheiden Computer viele Dinge in unserem alltäglichen Leben. Das bringt nicht nur Vorteile mit sich.

Die Bank verweigert einen Kredit trotz bester Bonität, Amazon schlägt beharrlich Bücher vor, die man nie lesen würde und der Ganzkörperscanner am Flughafen findet irgendetwas auffällig am eigenen Körper: das kann zwar keiner der freundlichen Beamten erklären, es zieht aber eine aufwendige Sicherheitskontrolle und einen Sprint zum Gate nach sich: Das alles sind die Folgen von Computerentscheidungen, die auf der Grundlage von Algorithmen getroffen wurden. Jeder kennt sie aus dem Alltag, aber die wenigsten machen sich bewusst, dass dahinter Rechenvorschriften liegen, die unser Leben immer mehr bestimmen. Drei Beispiele aus dem Alltag, die gleichzeitig auch die Probleme beschreiben:

Weiterlesen

Die Grenzen der Künstlichen Intelligenz

spektrum.de, 3. Mai 2016Link

Der Sieg einer Googlesoftware über den Weltmeister im Brettspiel Go hat der Technologie der künstlichen Intelligenz gesellschaftlichen Auftrieb verschafft. Die Mühen der Ebene zeigen aber, dass die Algorithmen des maschinellen Lernens allerlei Fallen bergen – auch für ihre Entwickler.

Die Bank verweigert einen Kredit trotz bester Bonität, Amazon schlägt beharrlich Bücher vor, die man nie lesen würde, und der Ganzkörperscanner am Flughafen findet irgendetwas auffällig am eigenen Körper: das kann zwar keiner der freundlichen Beamten erklären, es zieht aber eine aufwendige Sicherheitskontrolle und einen Sprint zum Gate nach sich: Die Auswirkungen maschinellen Lernens kennt jeder aus dem Alltag- auch wenn die wenigsten wissen, dass dahinter Künstliche-Intelligenz-Algorithmen liegen. Im Unterschied zum Brettspiel Go, wo jeder sehen kann, wer gewonnen hat, sind die meisten anderen Anwendungsgebiete weniger transparent: liegt der Schufa-Algorithmus falsch oder ist der Betroffene wirklich nicht kreditwürdig?

Je weitreichender die Einsatzgebiete solcher Algorithmen sind, umso gefährlicher sind  mögliche Fehlschlüsse oder Ungenauigkeiten solcher Systeme: Das kann jeder sofort nachvollziehen wenn es beispielsweise ums autonome Fahren oder um die Steuerung automatischer Waffensysteme geht. Experten glauben nicht daran, dass diese Fehler gänzlich auszumerzen sind. Sie liegen im System – und in der Anwendung: denn es ist längst kein Allgemeingut unter Informatikern, welcher Algorithmus für welche Anwendung geeignet ist. Dazu kommen Annahmen, die im Vorfeld getroffen werden müssen, und bei vielen Algorithmen die Unmöglichkeit, das Ergebnis auf die Richtigkeit oder statistische Relevanz hin zu überprüfen. Weiterlesen