Künstliche Intelligenz mit handfesten Vorurteilen

Spektrum der Wissenschaft/spektrum.de, 13. April 2017 – Link

In der Computerlinguistik nimmt eine Debatte über die Ethik des Faches an Fahrt auf: zwei aktuelle Veröffentlichungen zeigen, dass Algorithmen Vorurteile von Menschen übernehmen und diese zementieren. Wie kann sich die Gesellschaft davor schützen? Die Forscher haben verschiedene Ansätze – aber noch keine Lösung.

Wenn eine künstliche Intelligenz die menschliche Sprache aus repräsentativen Texten der Menschheit lernt, entwickelt sie Vorurteile. Schließlich stecken diese bereits in den Trainingsdaten, wenn auch häufig wenig offensichtlich. Die Diskussion darum, wie die Forschung mit dieser Tatsache umgehen soll, nimmt gerade an Fahrt auf und hat nun durch eine aktuelle Studie im Magazin „Science“ neue Nahrung bekommen: Forscher um die Informatikerin Aylin Caliskan von der Princeton University zeigen darin, dass entsprechende Algorithmen die gleichen impliziten rassistischen und sexistischen Stereotypen reproduzieren wie Menschen. Sie erzielten mit ihrem Messverfahren vergleichbare Ergebnisse wie Neurowissenschaftler, die unbewusste Vorurteile und Wertvorstelleungen bei Menschen mittels des Implicit Associations Test (IAT) untersucht hatten. Weiterlesen

Die perfekte Erinnerung

DIE ZEIT, 21. Januar 2016

Lässt sich alles, was wir erleben, digital speichern? Informatiker arbeiten daran. Wie ich Teil eines Experiments wurde.

Der Cyborg, der mir im Frühling 2013 in einem Stuttgarter Cafe gegenüber sitzt, sieht aus wie ein ganz normaler Mitvierziger mit leichten Geheimratsecken, in Hemd und Jeans. Nur sein türkiser Brillenbügel ist auffällig breit. Am vorderen Ende ist eine kleine Kamera eingearbeitet und ein Prisma. Seine rechte Hand steckt in der Hosentasche.

Thad Starner ist nicht allein. Er hat sein »System« bei sich. Das erkennt man an seiner Googlebrille und einer nahezu unsichtbaren rechteckigen Spiegelung auf seiner Netzhaut. In seiner Hosentasche hat er eine Fünffinger-Tastatur. Starner ist Informatikprofessor am Georgia Institute of Technology und ein Pionier der Erforschung anziehbarer Computer (wearable computing). Fast sein halbes Leben lang, seit mehr als 20 Jahren, trägt er wechselnde Versionen eines Prototypen am Körper. Er sieht sein »System« als Erweiterung seines Gehirns.

Weiterlesen

Datenjournalismus-Projekt DebateExplorer startet

Unser Projekt DebateExplorer hat die Förderzusage der Volkswagenstiftung bekommen! Die Stuttgarter Computerlinguisten Jonas Kuhn, Andre Blessing und ich werden im Rahmen der Ausschreibung „Wissenschaft und Datenjournalismus“ in den nächsten Monaten Tools entwickeln, die via Textmining die Beeinflussung von Debatten untersuchen. Einige dieser Tools sollen nach Pro­jek­ten­de allen in­ter­es­sier­ten Jour­na­lis­ten zur Ver­fü­gung stehen. Weiterlesen

„Es geht nicht um einen kindischen Wettkampf“

spektrum.de/Spektrum der Wissenschaft, 27. Oktober 2015 Link

Michael Resch leitet seit 2003 das Höchstleistungsrechenzentrum Stuttgart, dessen aktueller Supercomputer zu den 20 schnellsten der Welt zählt. Vom gegenseitigen Aufrüsten hält der Herrscher über eines der schnellsten zivilen Rechensysteme Europas allerdings nichts. Im Interview warnt er außerdem vor dem Nimbus des Computer als unfehlbares Werkzeug.

Herr Resch, die USA und China wetteifern um den schnellsten Computer der Welt. Aktuell hat China die Nase vorn, aber vor wenigen Wochen haben die USA angekündigt, einen Supercomputer zu entwickeln, der einen Exaflop an Rechenoperationen pro Sekunde schafft, also eine Trillion Kalkulationen. Reizt es Sie nicht, bei diesem Wettkampf mitzumischen?

Miachel Resch: Nein, das reizt mich in der Tat kein bisschen. Wir haben völlig andere Voraussetzungen: China und die USA entwickeln mit ihren Supercomputern Atomwaffen, wir fördern die Wissenschaft und die deutsche Industrie. Wir stehen aktuell mit unseren 3,8 Petaflop gut da. Außerdem geht es mir nicht um einen kindischen Wettkampf, sondern darum, die passende Technik für unsere Anwendungen anzuschaffen. Weiterlesen

Sicherheit für jeden

Technology Review 10/2015

Lange Zeit galten Sicherheit und Nutzbarkeit unter Informatikern als unvereinbar. Dabei muss man nur den Menschen und seine Stärken ernst nehmen.

Mantra eines Informatikers: „Lieber Nutzer, bitte verwende ein möglichst komplexes Passwort aus Buchstaben, Zahlen und Sonderzeichen, und nutze  keinesfalls das Gleiche für verschiedene Dienste!“ Lieblingsreaktion des Durchschnitt-Nutzers: „Ok, dann nehme ich 123mail für den Mailaccount und 123ebay für Ebay, 123amazon für Amazon.“ Kein Wunder, dass manch ein Informatiker kapituliert. Aber das ist falsch, findet Emanuel von Zezschwitz von der Ludwig-Maximilians-Universität München: „Man könnte sagen: die Leute brauchen keine Sicherheit, wenn sie keine wollen, aber damit dürfen wir uns nicht zufrieden geben.“ Das Problem liegt woanders, ergänzt Albrecht Schmidt vom Lehrstuhl für Mensch-Computer-Interaktion der Universität Stuttgart: „Sicherheit wurde lange von Leuten entwickelt, die nur die mathematische Seite gesehen haben.“  Nur kann sich kaum jemand komplexe Passwörter merken: „Mit dem Menschen im System gibt es keine absolute Sicherheit.“ Wer die menschlichen Fähigkeiten mitdenkt, kann die Sicherheit enorm erhöhen, betont Matthew Smith, Leiter der Arbeitsgruppe Usable Security and Privacy an der Uni Bonn: „80 Prozent gelebte Sicherheit sind besser als 100 Prozent Sicherheit, die keiner nutzt.“ Weiterlesen

Wie sichern wir unsere Unberechenbarkeit?

spektrum.de/Spektrum der Wissenschaft, 1. Oktober 2015 – Link

Brauchen wir neue gesellschaftliche Konventionen angesichts der zunehmenden Automatisierung? Forscher diskutieren, wie unsere Werte im digitalen Umbruch gesichert werden können. Auch der Mensch muss sich dabei neu definieren.

„Entschuldigen Sie bitte, wo ist denn hier die Liste der Dinge, die nicht automatisiert werden sollen?“ Wenn es nach dem Zukunftsforscher Alexander Mankowsky geht, ist das die erste Frage, die man den Verantwortlichen eines Automatisierungsprojektes jeder Art stellen sollte – sei das ein autonomes Auto oder eine Smart City. „Die schauen dann meistens ganz verblüfft“, sagt Mankowsky und grinst. Dabei findet er diese Frage gar nicht abwegig. Der Philosoph interpretiert dieses Bewusstsein über das nicht-Automatisierbare als Indikator dafür, inwiefern die menschliche Freiheit mitgedacht wird. Soziale Wahrnehmung lasse sich nicht automatisieren, und auch der Mensch der Zukunft sollte die Freiheit zur Willkür haben: Spontane Aktivitäten, die eine Maschine nicht vorhersehen kann. Und trotzdem nicht unter die Räder kommen. Weiterlesen

Social Media unplugged

Neue Züricher Zeitung, 13. August 2015

Ein junger Informatiker aus Zürich begründet eine Bewegung für mehr soziale Kontakte im echten Leben – vermittelt durch Computer. Zuerst wird er von seinen Kollegen belächelt. Jetzt holt der Mainstream auf.   

Männer in Hemd und Krawatte ziehen Grimassen, eine stolze Doktorandin hält umringt von Freunden  ihre Dissertation in die Kamera, eine Mutter und ihre beiden kleinen Töchter springen in die Höhe: diese Szenen hat die „Moment Machine“ festgehalten, ein öffentliches Display an der Universität Lugano mit eingebauter Kamera. Wer immer möchte, kann sich hier allein oder mit Freunden  fotografieren lassen, das Bild erscheint auf dem Display und auf Facebook. Allein lässt sich hier kaum einer abbilden: es sind fast nur Gruppen von Menschen, die sichtlich Spaß haben.

Mittendrin steht manchmal Nemanja Memarovic, stolz auf sein bislang erfolgreichstes Projekt, und freut sich, wie die Technologie Menschen zusammenbringt. Der 32-jährige Informatiker der Universität Zürich hat die „Moment Machine“ mit Kollegen in Lugano entwickelt. Im Gegensatz zu all den sozialen Netzwerken, die Momente im Leben ihrer Nutzer nur abbilden, kreiert Memarovics Maschine solche: Menschen treffen sich und tauschen sich aus. Wie wertvoll solche Momente sind, das weiß Memarovic, seit sie ihm einst entglitten sind. Weiterlesen

Wie intelligent darf die Stadt der Zukunft sein?

spektrum.de/ Spektrum der Wissenschaft, 29. Juli 2015Link

Deutsche Stadtverantwortliche haben häufig ganz andere Ideen, was gut für ihre Stadt ist, als die großen Technologiekonzerne mit ihren globalen Smart-City-Konzepten. Forscher suchen Lösungen für Europa. Ihre erste Erkenntnis: Projekte sollten von unten wachsen.

Was für eine Utopie: Sensoren registrieren jede Aktivität der Bürger, Kameras haben alle im Blick, die sich in einer Stadt bewegen, die gesamte öffentliche Infrastruktur ist mit dem Internet verbunden. Intelligente Algorithmen berechnen aus all diesen Daten den effizientesten Ablauf des Lebens: welcher Verkehrsteilnehmer auf welcher Route am schnellsten zum Ziel kommt, welche Mülleimer geleert werden müssen, auf welchen öffentlichen Toiletten das Klopapier aufgefüllt werden und in welchen Gebäuden die Klimaanlage wie viel kühlen muss und welche Jalousien wann heruntergefahren werden. Die Stadtoberen treffen keine irrationalen Entscheidungen mehr, Computer berechnen schließlich, was das Beste für die Gesellschaft ist – und setzen es auch gleich um: Pragmatismus statt Vetternwirtschaft. Und der Stadtbewohner muss sich um vieles nicht mehr selbst kümmern, er hat wieder Zeit für das Wesentliche im Leben.

Für manche ist diese Vision einer Smart City aber auch eine Horrorvision. „Wenn der öffentliche Bereich einem nahtlosen Funktionieren unterworfen wird, hört die Stadt auf, ein Ort der öffentlichen Auseinandersetzung zu sein, und verkommt zu einem banalen Konsumparadies“, fürchtet der Züricher Architekturtheoretiker Hans Frei. Ähnlich wie beim autonomen Auto würden dann aus Bürgern Passagiere, für die digitale Assistenten das Steuer übernehmen. „Das öffentliche Leben wird wie der Verkehr auf der Autobahn geregelt.“ Vielleicht überdecken die europäischen Datenschutzbedenken sogar das wahre Problem: „Letztlich entpuppen sich smarte Städte als eine viel größere Gefahr für die Öffentlichkeit als für die Privatheit“, so Frei. Weiterlesen

Kommentar: Es ist Zeit aufzuwachen!

spektrum.de, 17. Juli 2015Link

„Bitte beschäftigt euch mit unserer Forschung, sie wird euer Leben verändern“: sinngemäß diese Forderung schreit aus einigen Beiträgen im aktuellen „Science“-Magazin zum Schwerpunkt „Künstliche Intelligenz“ hervor. Die Forscher haben Recht mit ihrem Hilferuf, findet Eva Wolfangel: Es ist Zeit aufzuwachen.

Fahren wir auf eine Klippe zu und hoffen, dass das Benzin leer ist, bevor wir in den Abgrund stürzen? Dieses drastische Bild zeichnet der KI-Pionier Stuart Russel von der University of Califormia in der aktuellen Ausgabe des „Science“-Magazins angesichts all derer, die sagen: Maschinen werden nie intelligenter sein als Menschen. Ob es zu diesem Punkt je kommt, steht in den Sternen. Aber auch das, was selbst lernende Algorithmen heute schon können, fordert eine Neuorientierung der Gesellschaft. Das Bild Russels ist symptomatisch für unseren Umgang mit dem Thema künstliche Intelligenz: Anstatt sich genauer mit dem zu beschäftigen, was die modernen Technologien selbst lernender Systeme an Veränderungen für unser Zusammenleben mit sich bringen, halten wir uns lieber die Augen zu und hoffen, dass es schon gut gehen wird. Einerseits fördert die Gesellschaft entsprechende Entwicklungen mit hohen Fördersummen, andererseits weigern sich Politiker, sich tiefer mit dem Thema auseinanderzusetzen und entsprechende Gesetze auf den Weg zu bringen. Weiterlesen

Wie intelligent können Maschinen sein?

Stuttgarter Zeitung, Tagesthema, 17. Juli 2015

Intelligente Maschinen beschäftigen die Menschen derzeit stark.  Das Wissenschaftsmagazin „Science“ veröffentlicht einen Themenschwerpunkt über die aktuellen Herausforderungen der künstlichen Intelligenz – und ihre Begrenzungen

Sei es das soziale Netzwerk Facebook, das seine User mittels Künstlicher Intelligenz besser kennen lernen und Werbung noch gezielter platzieren will oder Googles Vision, den Menschen künftig Fragen zu beantworten, bevor sich diese ihnen stellen: Künstliche Intelligenz ist derzeit in viel gefragtes Themenfeld. Ein Grund für das Wissenschaftsjournal „Science“, Künstliche Intelligenz in der aktuellen Ausgabe als Themenschwerpunkt zu behandeln. Schließlich wächst das Thema auch in der Wissenschaft, hohe Fördersummen fließen in entsprechende Projekte. Ein mutmaßlich weiterer Grund: Die Sichtweise der Öffentlichkeit – seien es Befürchtungen vor superintelligenten Robotern bis hin zu übergroßen Hoffnungen, was Maschinen alles leisten könnten – weicht bisweilen von der Realität der Forschung ab. In verschiedenen Artikel beschreiben die Forscher die aktuellen Herausforderungen für die Künstliche Intelligenz – und ihre Begrenzungen. Weiterlesen