Künstliche Intelligenz mit handfesten Vorurteilen

Spektrum der Wissenschaft/spektrum.de, 13. April 2017 – Link

In der Computerlinguistik nimmt eine Debatte über die Ethik des Faches an Fahrt auf: zwei aktuelle Veröffentlichungen zeigen, dass Algorithmen Vorurteile von Menschen übernehmen und diese zementieren. Wie kann sich die Gesellschaft davor schützen? Die Forscher haben verschiedene Ansätze – aber noch keine Lösung.

Wenn eine künstliche Intelligenz die menschliche Sprache aus repräsentativen Texten der Menschheit lernt, entwickelt sie Vorurteile. Schließlich stecken diese bereits in den Trainingsdaten, wenn auch häufig wenig offensichtlich. Die Diskussion darum, wie die Forschung mit dieser Tatsache umgehen soll, nimmt gerade an Fahrt auf und hat nun durch eine aktuelle Studie im Magazin „Science“ neue Nahrung bekommen: Forscher um die Informatikerin Aylin Caliskan von der Princeton University zeigen darin, dass entsprechende Algorithmen die gleichen impliziten rassistischen und sexistischen Stereotypen reproduzieren wie Menschen. Sie erzielten mit ihrem Messverfahren vergleichbare Ergebnisse wie Neurowissenschaftler, die unbewusste Vorurteile und Wertvorstelleungen bei Menschen mittels des Implicit Associations Test (IAT) untersucht hatten. Weiterlesen

Die Grenzen der Künstlichen Intelligenz

spektrum.de, 3. Mai 2016Link

Der Sieg einer Googlesoftware über den Weltmeister im Brettspiel Go hat der Technologie der künstlichen Intelligenz gesellschaftlichen Auftrieb verschafft. Die Mühen der Ebene zeigen aber, dass die Algorithmen des maschinellen Lernens allerlei Fallen bergen – auch für ihre Entwickler.

Die Bank verweigert einen Kredit trotz bester Bonität, Amazon schlägt beharrlich Bücher vor, die man nie lesen würde, und der Ganzkörperscanner am Flughafen findet irgendetwas auffällig am eigenen Körper: das kann zwar keiner der freundlichen Beamten erklären, es zieht aber eine aufwendige Sicherheitskontrolle und einen Sprint zum Gate nach sich: Die Auswirkungen maschinellen Lernens kennt jeder aus dem Alltag- auch wenn die wenigsten wissen, dass dahinter Künstliche-Intelligenz-Algorithmen liegen. Im Unterschied zum Brettspiel Go, wo jeder sehen kann, wer gewonnen hat, sind die meisten anderen Anwendungsgebiete weniger transparent: liegt der Schufa-Algorithmus falsch oder ist der Betroffene wirklich nicht kreditwürdig?

Je weitreichender die Einsatzgebiete solcher Algorithmen sind, umso gefährlicher sind  mögliche Fehlschlüsse oder Ungenauigkeiten solcher Systeme: Das kann jeder sofort nachvollziehen wenn es beispielsweise ums autonome Fahren oder um die Steuerung automatischer Waffensysteme geht. Experten glauben nicht daran, dass diese Fehler gänzlich auszumerzen sind. Sie liegen im System – und in der Anwendung: denn es ist längst kein Allgemeingut unter Informatikern, welcher Algorithmus für welche Anwendung geeignet ist. Dazu kommen Annahmen, die im Vorfeld getroffen werden müssen, und bei vielen Algorithmen die Unmöglichkeit, das Ergebnis auf die Richtigkeit oder statistische Relevanz hin zu überprüfen. Weiterlesen

Die perfekte Erinnerung

DIE ZEIT, 21. Januar 2016

Lässt sich alles, was wir erleben, digital speichern? Informatiker arbeiten daran. Wie ich Teil eines Experiments wurde.

Der Cyborg, der mir im Frühling 2013 in einem Stuttgarter Cafe gegenüber sitzt, sieht aus wie ein ganz normaler Mitvierziger mit leichten Geheimratsecken, in Hemd und Jeans. Nur sein türkiser Brillenbügel ist auffällig breit. Am vorderen Ende ist eine kleine Kamera eingearbeitet und ein Prisma. Seine rechte Hand steckt in der Hosentasche.

Thad Starner ist nicht allein. Er hat sein »System« bei sich. Das erkennt man an seiner Googlebrille und einer nahezu unsichtbaren rechteckigen Spiegelung auf seiner Netzhaut. In seiner Hosentasche hat er eine Fünffinger-Tastatur. Starner ist Informatikprofessor am Georgia Institute of Technology und ein Pionier der Erforschung anziehbarer Computer (wearable computing). Fast sein halbes Leben lang, seit mehr als 20 Jahren, trägt er wechselnde Versionen eines Prototypen am Körper. Er sieht sein »System« als Erweiterung seines Gehirns.

Weiterlesen

Datenjournalismus-Projekt DebateExplorer startet

Unser Projekt DebateExplorer hat die Förderzusage der Volkswagenstiftung bekommen! Die Stuttgarter Computerlinguisten Jonas Kuhn, Andre Blessing und ich werden im Rahmen der Ausschreibung „Wissenschaft und Datenjournalismus“ in den nächsten Monaten Tools entwickeln, die via Textmining die Beeinflussung von Debatten untersuchen. Einige dieser Tools sollen nach Pro­jek­ten­de allen in­ter­es­sier­ten Jour­na­lis­ten zur Ver­fü­gung stehen. Weiterlesen

Sicherheit für jeden

Technology Review 10/2015

Lange Zeit galten Sicherheit und Nutzbarkeit unter Informatikern als unvereinbar. Dabei muss man nur den Menschen und seine Stärken ernst nehmen.

Mantra eines Informatikers: „Lieber Nutzer, bitte verwende ein möglichst komplexes Passwort aus Buchstaben, Zahlen und Sonderzeichen, und nutze  keinesfalls das Gleiche für verschiedene Dienste!“ Lieblingsreaktion des Durchschnitt-Nutzers: „Ok, dann nehme ich 123mail für den Mailaccount und 123ebay für Ebay, 123amazon für Amazon.“ Kein Wunder, dass manch ein Informatiker kapituliert. Aber das ist falsch, findet Emanuel von Zezschwitz von der Ludwig-Maximilians-Universität München: „Man könnte sagen: die Leute brauchen keine Sicherheit, wenn sie keine wollen, aber damit dürfen wir uns nicht zufrieden geben.“ Das Problem liegt woanders, ergänzt Albrecht Schmidt vom Lehrstuhl für Mensch-Computer-Interaktion der Universität Stuttgart: „Sicherheit wurde lange von Leuten entwickelt, die nur die mathematische Seite gesehen haben.“  Nur kann sich kaum jemand komplexe Passwörter merken: „Mit dem Menschen im System gibt es keine absolute Sicherheit.“ Wer die menschlichen Fähigkeiten mitdenkt, kann die Sicherheit enorm erhöhen, betont Matthew Smith, Leiter der Arbeitsgruppe Usable Security and Privacy an der Uni Bonn: „80 Prozent gelebte Sicherheit sind besser als 100 Prozent Sicherheit, die keiner nutzt.“ Weiterlesen

Wie wird aus Datenjournalismus mehr als Teenager-Sex?

Der Stand des deutschen Datenjournalismus nach der Konferenz Datenlabor 2015 und was wir tun müssen, wenn wir unsere Möglichkeiten nicht länger verschenken wollen.

Datenjournalismus ist wie Teenager-Sex: alle reden davon. Keiner weiß so richtig, wie es geht. Jeder denkt, alle anderen tun es. Und deshalb behaupten alle, dass sie es tun. Diese Sätze  habe ich von dem US-Psychologen Dan Ariely geklaut – und auch leicht abgewandelt. Es ist mir kürzlich bei einem wissenschaftlichen Vortrag über Bigdata über den Weg gelaufen. Und das, was im wissenschaftlichen Zusammenhang Bigdata ist, erscheint mir im Journalismus derzeit der Datenjournalismus. Der Begriff wird inflationär verwendet, und jede Redaktion, die etwas auf sich hält, unterhält wenigstens ein Datenjournalismus-Team.

Was vor einigen Jahren mit einer Debatte über neue „Storytelling“-Formate im Netz begann, einer Debatte, der man auf keiner Journalistenkonferenz entkam (und die im übrigen den Begriff Storytelling – eine eigene, fabelhafte, viel zu seltene journalistische Stilform – verhunzt), heißt heute Datenjournalismus. Und hej, wenn die ganze Welt von Bigdata redet, wenn Daten wahlweise das Gold oder das Öl der Zukunft sind – dann nichts wie mitgemischt. Irgendwie wollen wir Journalisten ja auch nichts verpassen. Weiterlesen

Das Auge ist mehr als eine gute Kamera

Stuttgarter Zeitung, 12. Oktober 2015

Philipp Berens erforscht die Netzhaut mit Bigdata-Methoden und stellt damit einige Wahrheiten seines Faches auf den Kopf.

Philipp Berens hat alles anders gemacht, als es jungen aufstrebenden Wissenschaftlern heute empfohlen wird: er verbrachte seine gesamte wissenschaftliche Laufbahn in Tübingen. Er verabschiedete sich zwei Mal in Elternzeit – beim zweiten Mal für ein ganzes Jahr. Und er arbeitete bisweilen Teilzeit. Trotzdem Karriere zu machen ist nicht selbstverständlich. „Ich hatte einfach Glück“, sagt der 34 Jahre alte Bioinformatiker: Professoren zeigten Verständnis für seine Lebensweise, Kollegen akzeptierten, dass er zeitweise wirklich nur bis 15 Uhr und dann erst wieder ab 20 Uhr ansprechbar war: wenn die Kinder im Bett sind.
Mit dieser Strategie hat er es zum glücklichen Vater und zum erfolgreichen Wissenschaftler gebracht: er wurde jüngst mit einem der weltweit höchst dotierten Nachwuchs-Förderpreise ausgezeichnet. Weiterlesen

Wie sichern wir unsere Unberechenbarkeit?

spektrum.de/Spektrum der Wissenschaft, 1. Oktober 2015 – Link

Brauchen wir neue gesellschaftliche Konventionen angesichts der zunehmenden Automatisierung? Forscher diskutieren, wie unsere Werte im digitalen Umbruch gesichert werden können. Auch der Mensch muss sich dabei neu definieren.

„Entschuldigen Sie bitte, wo ist denn hier die Liste der Dinge, die nicht automatisiert werden sollen?“ Wenn es nach dem Zukunftsforscher Alexander Mankowsky geht, ist das die erste Frage, die man den Verantwortlichen eines Automatisierungsprojektes jeder Art stellen sollte – sei das ein autonomes Auto oder eine Smart City. „Die schauen dann meistens ganz verblüfft“, sagt Mankowsky und grinst. Dabei findet er diese Frage gar nicht abwegig. Der Philosoph interpretiert dieses Bewusstsein über das nicht-Automatisierbare als Indikator dafür, inwiefern die menschliche Freiheit mitgedacht wird. Soziale Wahrnehmung lasse sich nicht automatisieren, und auch der Mensch der Zukunft sollte die Freiheit zur Willkür haben: Spontane Aktivitäten, die eine Maschine nicht vorhersehen kann. Und trotzdem nicht unter die Räder kommen. Weiterlesen

Die Geister der Überwachung will er nicht gerufen haben

Stuttgarter Zeitung, 15. September 2015

Frieder Nake ist einer der Pioniere der Informatik und der Vater der Computerkunst. Aber was die Menschen heute mit den Maschinen machen, das stimmt den früheren Stuttgarter skeptisch.

Eines stimmt sicher: „Too old to die young“ prangt auf dem schwarzen T-Shirt des Mannes, der da vor der Tafel steht. Er geht auf die 80 zu, jung stirbt er jedenfalls nicht mehr. Aber sollen sie ansonsten alles glauben, was der Informatikprofessor da vorne erzählt? Die Studierenden schauen skeptisch. „Ihr braucht keine Angst vor der künstlichen Intelligenz haben. Die kann es gar nicht geben“, ruft der kleine drahtige Mann in schwarzer Hose, schwarzen Sportsocken und schwarzen Birkenstocks in die Runde. „Element of crime“, steht unter dem Spruch auf seinem Shirt. Der Professor spürt die Skepsis. „Später werdet ihr euch an mich erinnern und an dieses „crime“ und euch denken: was war das? Das muss ein Krimineller gewesen sein“, sagt er und lacht.

Frieder Nake wirkt in diesem Seminarraum an der Bremer Kunsthochschule wie aus der Zeit gefallen. Seine Studenten sind mehr als 50 Jahre jünger als er, sie kennen ihn bisher nur aus Büchern, seine Werke aus Ausstellungen – und viele sind genau deshalb gekommen: er ist der Vater der Computerkunst, er ist überhaupt einer der ersten Menschen, die Computer programmiert haben. Er verkörpert ein Leben, das mit der Liebe zur Computersprache begann. Eine zwiespältige Liebe, wie sich im Laufe der Zeit herausstellen sollte.
Weiterlesen

Wie intelligent darf die Stadt der Zukunft sein?

spektrum.de/ Spektrum der Wissenschaft, 29. Juli 2015Link

Deutsche Stadtverantwortliche haben häufig ganz andere Ideen, was gut für ihre Stadt ist, als die großen Technologiekonzerne mit ihren globalen Smart-City-Konzepten. Forscher suchen Lösungen für Europa. Ihre erste Erkenntnis: Projekte sollten von unten wachsen.

Was für eine Utopie: Sensoren registrieren jede Aktivität der Bürger, Kameras haben alle im Blick, die sich in einer Stadt bewegen, die gesamte öffentliche Infrastruktur ist mit dem Internet verbunden. Intelligente Algorithmen berechnen aus all diesen Daten den effizientesten Ablauf des Lebens: welcher Verkehrsteilnehmer auf welcher Route am schnellsten zum Ziel kommt, welche Mülleimer geleert werden müssen, auf welchen öffentlichen Toiletten das Klopapier aufgefüllt werden und in welchen Gebäuden die Klimaanlage wie viel kühlen muss und welche Jalousien wann heruntergefahren werden. Die Stadtoberen treffen keine irrationalen Entscheidungen mehr, Computer berechnen schließlich, was das Beste für die Gesellschaft ist – und setzen es auch gleich um: Pragmatismus statt Vetternwirtschaft. Und der Stadtbewohner muss sich um vieles nicht mehr selbst kümmern, er hat wieder Zeit für das Wesentliche im Leben.

Für manche ist diese Vision einer Smart City aber auch eine Horrorvision. „Wenn der öffentliche Bereich einem nahtlosen Funktionieren unterworfen wird, hört die Stadt auf, ein Ort der öffentlichen Auseinandersetzung zu sein, und verkommt zu einem banalen Konsumparadies“, fürchtet der Züricher Architekturtheoretiker Hans Frei. Ähnlich wie beim autonomen Auto würden dann aus Bürgern Passagiere, für die digitale Assistenten das Steuer übernehmen. „Das öffentliche Leben wird wie der Verkehr auf der Autobahn geregelt.“ Vielleicht überdecken die europäischen Datenschutzbedenken sogar das wahre Problem: „Letztlich entpuppen sich smarte Städte als eine viel größere Gefahr für die Öffentlichkeit als für die Privatheit“, so Frei. Weiterlesen