Wissenschaftsreportage Technik Eva Wolfangel

Magazin t3n Nr 48, Drittes Quartal 2017

Verschlafen die deutschen Unternehmen die Chancen der künstlichen Intelligenz? Laut aktueller Studien sind sie kaum vorbereitet. Das zeigen auch Einblicke in die Praxis. Startups sind da deutlich weiter – und übertreffen selbst die großen ­KI-Pioniere.

Bist du schwul, depressiv oder in Kauflaune? Sorgst du dich um deine Kinder, bist du ein aggressiver Zeitgenosse oder hast du gar eine Ehekrise? Das alles – so heißt es - weiß die künstliche Intelligenz über uns: Sie kennt uns besser als unsere Freunde uns kennen, weiß mehr, als unser Partner über uns. Das zumindest behaupten jene, die von solchen Entwicklungen profitieren: Immer mal wieder geistern Studien durch die Medien, die beispielsweise aus Twitterdaten vorhersagen, ob jemand eine psychische Krankheit entwickelt oder aus Facebook-Posts die Persönlichkeit berechnen, für deren Definition Psychologen fünf Fragebögen und sechs Monate persönliche Gespräche benötigen.

Was für ein Versprechen allein für das Marketing! Mit diesen Technologien können Kundenwünsche generiert werden. Mit einer künstlichen Intelligenz, die die Welt versteht, können Prozesse optimiert, die Produktion effizienter, unser Alltag leichter werden. Die Unternehmen müssten sich darauf stürzen. Die Wahrheit ist aber eine andere: die großen deutschen Unternehmen sind extrem zögerlich, was die Möglichkeiten der Künstlichen Intelligenz angeht.

Selbst jene, die als Pioniere der KI gehandelt werden: IBM beispielsweise ist spätestens seit dem Sieg seines Computer Deep Blue 1996 gegen den amtierenden Schachweltmeister Garry Kasparow für die Öffentlichkeit ein Begriff. Und seit der Computer Watson 2011 Menschen in der Quizsendung Jeopardy weit übertrumpfte, steht der Name für die Möglichkeiten der künstlichen Intelligenz. Aber als sich Computerlinguisten einer deutschen Universität kürzlich in einer internen Veranstaltung mit einem IBM-Forscher trafen, waren sie baff. Er zeigte ihnen, wie das Unternehmen für seine Kunden – beispielsweise Supermärkte - ein Stimmungsbild aus sozialen Netzwerken extrahiert. Die Wissenschaftler hatten selbst viel Erfahrung darin, aus Tweets oder Facebook-Posts weitere Informationen zu berechnen, die Nutzer teils nicht bewusst geteilt hatten.. Sie kannten verschiedene Ansätze, wie ein maschinelles Lernverfahren aus den Tweets beispielsweise das Geschlecht eines Nutzers erkennt oder ob dieser wohl Kinder habe – ähnlich wie die eingangs erwähnten Verfahren, die teils allein aus der Wortwahl erkennen, ob jemand depressiv ist. Sie kannten die Hürden jener Verfahren, aber auch die rasanten Fortschritte der Musterkennung dank künstlicher Neuronaler Netze. Sie waren neugierig, wie sie die Praxis voranbringen: Welches Unternehmen steht so sehr für Künstliche Intelligenz wie die „Watson-Mutter“? Die Enttäuschung war groß: „Die machen das gar nicht!“, entfährt es einem der Forscher im Rückblick, „die sind total basic.“

In der Tat: wer bei IBM selbst nachfragt erfährt von Alexander Lang, Chief Data Scientist für Watson Analytics for Social Media, dass diese Analyse gespickt ist von programmierten Regeln, während maschinelles Lernen nur am Rande genutzt wird. Im Prinzip nutzt IBM hier also den Stand der Technik aus den 1990er Jahren, als Computer allein per vorgegebenen Regeln beigebracht wurde, wie sie in welcher Situation reagieren sollen. Doch mit der steigenden Komplexität der Systeme wurde dieses Regel-Programmieren immer schwieriger: Neben der reinen Fleißaufgabe, tausende Regeln für jeden erdenklichen Fall einzugeben, war es für Menschen kaum möglich, alle Eventualitäten zu bedenken. Heute sind jene Algorithmen des maschinellen Lernens, die sich die Welt „selbst“ erklären, indem sie anhand von Trainingsdaten Zusammenhänge lernen, üblicherweise leistungsfähiger. Wer weiterhin allein auf Regeln vertraut, verzichtet darauf, die maschinelle Intelligenz zu nutzen und wird weniger Informationen aus Daten extrahieren können.

Geschlechtserkennung von Social Media Nutzern? Dafür nutzt IBM eine Liste mit Vornamen – der Computer bekommt also eine klare Vorgabe. „Wir finden das immerhin bei 50 Prozent der Nutzer heraus“, sagt Lang. Hobbys der Nutzer? Das, was sie in ihrem Profil angeben. Nur: die wenigsten geben Hobbys an. Kann man sie nicht viel besser mit künstlicher Intelligenz aus den Posts an sich extrahieren? „So genügt es uns“, sagt Lang. Ebenso die Erkennung von Eltern - für viele Unternehmen eine besonders interessante Kundengruppe: die Watson-Erkennungsraten in Social Media und Foren liegen laut Lang bei rund fünf Prozent. Nur fünf Prozent? Es reicht, sagt Lang ein mal mehr: „Bei 200.000 Profilen sind das 10.000 Nutzer – da müssten Sie lange vor den Supermarkt stehen und Umfragen machen.“ Das System erkennt, wenn jemand schreibt „Die Schokonusscreme von X ist besser als die von Y“ und verteilt einen Pluspunkt an X und einen Minuspunkt an Y – aufgrund vorgegebener syntaktischer Regeln. Während sich Computerlinguisten mehrheitlich einig sind, dass dieses klassische Regeln-Programmieren Probleme deutlich schlechter löst, als wenn man neuronale Netze ihre eigenen Schlüsse aus Trainingsdaten ziehen lässt, halten die KI-Pioniere an den alten Regeln fest – weil es reicht. Wenn jemand twittert „meine Frau“, dann geht Watson aufgrund einer einprogrammierten Regel davon aus, dass der a) ein Mann und b) verheiratet ist. „Das ist simpel genug, um es mit einer Regel zu machen“, sagt Lang – obwohl angefangen von lesbischen Frauen bis hin zu einer Lüge vieles andere denkbar ist, was eine Künstliche Intelligenz aus den Posts errechnen könnte. Wenn man sie darauf loslassen würde. Aber IBM hält seine vielgerühmte KI an der kurzen Leine - zumindest wenn sie für Kunden arbeitet. Es ist die sichere Variante: so ist das System unter Kontrolle.

Vielleicht ist die Künstliche Intelligenz tatsächlich noch nicht bereit für den Markt. Ihre Schwächen sind nicht zu übersehen: Die modernen Algorithmen sind zwar super darin, Muster in großen Mengen unstrukturierter Daten zu finden und werden täglich besser darin. Aber manche jener Studien wie jene, laut derer man die Persönlichkeit eines Facebooks-Nutzes anhand weniger Klicks berechnen kann und ihn so angeblich besser kennt als der eigene Partner unddie Empörungswellen nach sich ziehen, zeigen bei genauerem Hinsehen keine besonders hohe Genauigkeit. Forscher sorgen sich zudem, weil der Weg, wie eine künstliche Intelligenz zu ihrer Entscheidung gelangt, nicht nachvollzogen werden kann. Manchmal kommen die Algorithmen zu Schlüssen, die Menschen überraschen – und das kann alles sein von peinlich (wie der Vorfall mit der Google-Bilderkennung, die dunkelhäutige Menschen zu Gorillas erklärte), bis zu gefährlich (wenn man an autonome Autos oder den militärischen Einsatz von Drohnen denkt).

Aber ist das, „was reicht“, gut genug für die Zukunft? Allenthalben bemängeln Technologie-Berater, die deutsche Wirtschaft sei im KI-Bereich nicht gut aufgestellt. So ergab eine Umfrage von Sopra Steria im April 2017 unter 200 Managern großer Unternehmen mit mehr als 500 Mitarbeitern, dass sich diese von der Angst vor der neuen Technologie ausbremsen ließen, und auch der Thinktank 2BeAhead vermeldete nach seiner Trendstudie im Juni, deutsche Unternehmen fühlten sich „mangelhaft auf künstliche Intelligenz vorbereitet.“ Das scheint vorallem die Etablierten zu betreffen. Wer sich in der Startup-Szene rund um maschinelles Lernen in Deutschland umhört, hört kaum Widerspruch zur These, dass IBM seine Künstliche Intelligenz nicht von der Leine lässt. Wenn Fabian Westerheide, Investor und KI-Experte, einen seiner Vorträge vor Startup-Gründern im Bereich KI hält und fragt: „Wer ist mit Watson zufrieden?“, dann nickt keiner. Die Vision der Gründer ist deutlich radikaler als die der Pioniere. „Die meisten Startups sind innovativer“, sagt Fabian Westerheide.

IBM hat auch einen Chatbot – wer den allerdings etwas fragen möchte, solle doch bitte erst die Liste möglicher Fragen lesen, so die Bitte auf der Website. Dass es auch anders geht, zeigt das Berliner Startup Parlamind von Christian Wolf und Tina Klüwer. Parlamind hat eine Künstliche Intelligenz entwickelt, die Mails mit Kundenanfragen liest, auswertet und selbständig beantwortet. „Maschinen sollten auf unterschiedlichen Ebenen verstehen, was Menschen wollen“, sagt Klüwer – ganz egal, ob es um Fragen, Beschwerden oder Forderungen geht. Ihre KI kann selbst einschätzen, wie sicher sie sich ist, eine Anfrage richtig verstanden zu haben – und die Kunden von Parlamind können festlegen, ab welcher Sicherheit sie die Antwort sofort rausschickt und wann noch ein Mensch darauf schauen soll.

„Viele Chatbots schauen nur nach einzelnen Schlüsselwörtern“, sagt die Computerlinguistin, „unsere Modelle sind komplexer.“ Die Gründer programmieren keine Regeln, sie verlassen sich ganz auf die maschinelle Intelligenz, die aus den Vorlagen lernt: „Maschinen extrahieren sich das Wissen selbst.“ Vor der viel zitierten Blackbox hat Wolf keine Angst. „Hundertprozentig fehlerfrei ist das praktisch nie, aber auch kein Mensch ist perfekt.“ Auch eine falsche Rechtschreibung, fehlende Interpunktion und ähnliches, was üblich ist in dieser Domain, bringt das System nicht durcheinander. Es ist auf diesen Spezialfall trainiert und dafür gut. 70 Kunden nutzen den Service bereits, 160 000 Mails schreibt das System pro Tag. Dass viele große Unternehmen nach wie vor Regeln programmieren, obwohl das eigentlich nicht mehr Stand der Technik ist, hat aus Klüwers Sicht historische Gründe. „Ich sehe in Deutschland vorallem den Bedarf, besser zu verstehen, was KI bedeutet“, sagt sie.

Doch daran mangelt es offensichtlich. Die Einstellung der eablierten Unternehmen zu KI erscheint schizophren: Auf die Frage des Thinktanks von 2bAhead in der erwähntrn Studie: ‘Glauben Sie, dass KI ganz viel Potential hat‘ antwortet der Großteil mit Ja. Auch die Frage, ob KI künftig nicht nur Fachaufgaben übernehmen, sondern auch Entscheidungen treffen kann, bejahte die große Mehrheit. Selbst die Frage, ob KI in den nächsten fünf Jahren Führungsaufgaben übernehmen wird, beantworteten noch 50 Prozent mit Ja. „Wenn das eine belastbare Perspektive ist, dann muss ich mich doch fragen: wie bereite ich mich darauf vor?“, sagt Michael Carl von 2bAhead. Aber das geschieht kaum. Das Motto der Unternehmen scheint zu sein: KI ist wichtig, aber das hat mit mir nichts zu tun. Scheuen sie die Investition, die nötig ist, um sich mit der Technik genauer zu beschäftigen?

Wer KI nutzen will, muss investieren. Einer der das verstanden hat, ist Erik Pfannmöller. Der ehemalige Weltmeister im Kanu-Slalom gründete nach seinem sportlichen Karriereende und dem Abschluss der Business-School ein e-Commerce-Unternehmen, das schnell 70 Mitarbeiter hatte und 20 Millionen Euro Umsatz machte, und das er schließlich verkaufte. „Jetzt will ich Hightech gründen“, sagte er sich schließlich. Nur: wie geht das? Ein Jahr lang mietete er sich ein Büro allein zum Selbststudium, las alles, was er über Künstliche Intelligenz finden konnte, besucht jedes Webinar und jede Online-Schulung, büffelte über Lehrbüchern. „Ich habe 100 Stunden Videokurse gesehen, 100 Menschen zum Lunch getroffen, 1000 Seiten im Mathebuch gelernt“, fast er zusammen.

Erst, als sich die Gespräche und Inhalte wiederholten, fand er sich reif fürs Gründen. Und er gründete „fredknows.it“: einen Chatbot, der Probleme löst: die KI befragt den Nutzer systematisch mit Fragen, die er mit Ja oder nein beantworten kann – so lange, bis sie die Antwort weiß. Pfannmöllers Kunden sind Unternehmen, die diesen Service an ihre Kunden weitergeben, beispielsweise Banken oder eCommerce-Unternehmen. Dafür trainiert jedes Unternehmen den Chatbot selbst mit seinen Kundenfragen und -antworten. Aktuell liegt das System zu 72 Prozent richtig, vor falschen Antworten hat der Gründer keine Angst. „Unsere KI lernt mit jeder Frage und Antwort dazu“, sagt Pfannmöller. Das erspart es Pfannmöllers Kunden, die Fragen am Telefon beantworten zu müssen und erfreut deren Kunden, die dann nicht mehr in der Warteschleife einer Telefonhotline hängen.

Wieso sind die großen Unternehmen so zögerlich? „Die Großen haben mehr zu verlieren“, sagt er, was häufig zu einer Risikovermeidungsstrategie führe. Doch langsam brechen die Barrieren in den Köpfen, beobachtet er: „Wir sind gerade in der Phase, in der alle Leute merken: hej, das funktioniert ja wirklich!“ Aber von dort bis zur eigenen Adaption der Technologie ist es ein weiter Weg. Immer mal wieder wird Pfannmöller von Unternehmensberatungen eingeladen, die für große Unternehmen arbeiten, die verstehen wollen, wie KI funktioniert. Er nennt das „Startup-Zoo“. Dass sich die Unternehmen nicht gut vorbereitet fühlen? „Selbst schuld, so etwas muss strategisch geplant werden, es genügt nicht, drei Blogartikel zu lesen.“

Laut der Leipziger 2b-Ahead-Studie sehen die Entscheider sogar ein, dass sie sich mehr mit der Technologie beschäftigen müssen, aber offenbar fühlen sie sich teilweise ausgebremst von der Trägheit großer Unternehmen. Zudem haben sie Sorgen, wie sie das den Mitarbeitern vermitteln sollen. „Wie bringe ich Teams bei, dass Technologie zum Teil bessere Entscheidungen trifft als ein erfahrener Kollege, der das seit 20 Jahren macht?“, fragt Carl.

Nicht zuletzt sei es eine gesellschaftliche Debatte angesichts der Gefahren der Künstlichen Intelligenz, die sich beispielsweise daraus ergeben, dass ihre Entscheidungen nicht nachvollzogen werden können: was, wenn sie falsch liegen? „Wollen wir nur Technologie einsetzen, die wir auch kontrollieren können?“, fragt Carl. Zudem sei ein kurzfristiger Erfolg meist schneller zu haben, wenn das Einsatzgebiet möglichst eng eingegrenzt werde: „Um schnell viel Effekt zu erhalten, muss ich das Problem möglichst spitz halten und Regeln programmieren.“ Breite KI-Anwendungen hingegen gebe es noch kaum in der Praxis.

 

An dieser Breite arbeitet der Berliner Christian Thurau. Sein Startup Twenty Billion Neurons will Künstlicher Intelligenz die Welt erklären. Dafür lehrt es Neuronalen Netzen zu erkennen, was in Videos geschieht. An sich eine große Aufgabe, denn es müssen nicht nur Bilder sondern auch ein gewisser Sinn dahinter erkannt werden. „Man möchte verstehen: was passiert da eigentlich?“, sagt Thurau. Die Gründer zerlegen das Problem in viele kleine lösbare Einheiten. Dafür beauftragten sie Crowdworker aus dem Netz, sich bei allerlei alltäglichen Handlungen zu filmen. „Wir haben das Label vorgegeben, beispielsweise: ‚eine Tasse Kaffee trinken‘.“ Damit haben sie die klassische Herangehensweise auf den Kopf gestellt: normalerweise suchen Forscher Videos und lassen sie von Menschen annotieren. Thuraus systematische Herangehensweise ist erstaunlich effizient, zudem hat es nach eigener Aussage mit 350.000 Videos den größten Datensatz der Welt im Bereich Videoerkennung - nur muss man ersteinmal darauf kommen. Vielleicht braucht es ein Startup, um derart um die Ecke denken zu können.

Dass die großen deutschen Unternehmen hier eher zögerlich sind, wundert ihn. „Es müsste mehr laufen hierzulande, wenn man sieht, wie weit die Unternehmen in den USA schon sind.“ Dort scheint man mutiger und unbedarfter zu sein: ähnlich wie die hiesigen Startups probieren dort auch die etablierten Unternehmen einfach mal aus – was sich eben auch in der ein oder anderen Panne niederschlägt wie bei der eingangs erwähnten Google Bilderkennung. Deutsche Unternehmen signalisieren zwar Interesse, und Thurau verhandelt mit den ersten Branchen, beispielsweise die Automobilbranche, für die Gestenerkennung der erste Schritt hin zum autonomen Auto ist.Dennoch beobachtet er, dass Startups hierzulande weniger ernst genommen werden. Um die Künstliche Intelligenz voranzubringen, stellt Twenty Billion Neurons einige seiner Datensätze öffentlich zur Verfügung zu Forschungszwecken.

Aber es geht nicht nur um die Technik. „Es mangelt auch an der kulturellen Bereitschaft“, sagt Investor Westerheide, „an der Idee, dass Ingenieure Software verkaufen.“ Schließlich spielt am Ende weniger das Äußere eines autonomen Autos eine Rolle als vielmehr die Software, die es steuert. Das verlangt von den deutschen Großunternehmen ein radikales Umdenken, schließlich ist das ein ganz anderes Geschäftsmodell. „Für KI muss man mutig sein, man kann nichts inkrementell verbessern.“ Die Hardware sei lediglich noch das trojanische Pferd, um die Software zu verkaufen. Die Software hingegen der Wertschöpfungstreiber. „Mir fallen nicht viele deutsche Unternehmen ein, die das verstanden haben.“

Künstliche Intelligenz werde am Ende alles bestimmen, ist Westerheide überzeugt: „Wo vorher 100 Arbeiter waren, werden künftig zehn eine KI steuern.“ Und natürlich wird am Ende jener gewinnen, der seine Prozesse auf dieser Art am schnellsten effizienter macht. Doch genau das führt bei den deutschen Angestellten kaum zu Euphorie, sondern eher zu der Angst, einer der 90 Weggesparten zu sein. Kein Wunder, dass große Unternehmen auch am inneren Widerstand scheitern: eine große Umwälzung lässt sich nur durchsetzen, wenn diejenigen, die sie vorantreiben sollen, auch wirklich überzeugt sind davon. Doch wie ankommen gegen die Angst der Menschen, durch eine KI ersetzt zu werden? Vielleicht lohnt es sich, die Perspektive zu wechseln. „Ich hasse es, dass Menschen arbeiten müssen“, sagt Westerheide. „Wir existieren doch nicht nur, um die Produktivität unseres Chefs zu erhöhen, das kann doch nicht der Sinn sein.“ Eine Gesellschaft, in der alle weniger arbeiten müssen, weil die Automatisierung die Produktivität erhöht, ist eine schöne Utopie. Man müsste nur dafür sorgen, dass alle davon profitieren und nicht nur die Manager der Großkonzerne. Aber das ist eine andere Diskussion.