Das Auge ist mehr als eine gute Kamera

Stuttgarter Zeitung, 12. Oktober 2015

Philipp Berens erforscht die Netzhaut mit Bigdata-Methoden und stellt damit einige Wahrheiten seines Faches auf den Kopf.

Philipp Berens hat alles anders gemacht, als es jungen aufstrebenden Wissenschaftlern heute empfohlen wird: er verbrachte seine gesamte wissenschaftliche Laufbahn in Tübingen. Er verabschiedete sich zwei Mal in Elternzeit – beim zweiten Mal für ein ganzes Jahr. Und er arbeitete bisweilen Teilzeit. Trotzdem Karriere zu machen ist nicht selbstverständlich. „Ich hatte einfach Glück“, sagt der 34 Jahre alte Bioinformatiker: Professoren zeigten Verständnis für seine Lebensweise, Kollegen akzeptierten, dass er zeitweise wirklich nur bis 15 Uhr und dann erst wieder ab 20 Uhr ansprechbar war: wenn die Kinder im Bett sind.
Mit dieser Strategie hat er es zum glücklichen Vater und zum erfolgreichen Wissenschaftler gebracht: er wurde jüngst mit einem der weltweit höchst dotierten Nachwuchs-Förderpreise ausgezeichnet. Der Bernstein Preis für Computational Neuroscience fördert den Aufbau einer eigenen Arbeitsgruppe mit bis zu 1,25 Millionen Euro. Berens will damit eine Gruppe an der Uni Tübingen gründen, um die Bipolar-Zellen der Netzhaut zu untersuchen. Seine ersten Forschungen zu benachbarten Zellen haben bereits vermeintliche Wahrheiten der Neurowissenschaften auf den Kopf gestellt.

Dabei hielt Berens das Auge lange nicht für ein besonders interessantes Forschungsgebiet. „Ich dachte, es ist eine bessere Kamera“, sagt er heute. Viele Neurowissenschaftler dachten so: Was soll das Auge schon machen, als ein Bild aufzunehmen und dieses ans Gehirn übertragen? Aber Philipp Berens ist eben auch ein Kind seiner Zeit: einer Zeit, in der sich die Neurowissenschaften radikal veränderten angesichts neuer Techniken, mit denen sich Nervensignale betrachten lassen. Die Möglichkeiten, dank dieser und mittels maschineller Datenauswertung ganz neue Erkenntnisse zu gewinnen, faszinierte den jungen Forscher schon immer.

In seiner Dissertation am Max-Planck-Institut für biologische Kybernetik in Tübingen erforschte er globaler die „Programmiersprache“ des Gehirns, wie er sagt: noch ist wenig darüber bekannt, welche Berechnungsverfahren das Gehirn benutzt, um Reize aus der Außenwelt zu verarbeiten. „Um eines Tages verloren gegangene Funktionen des Gehirns wiederherstellen zu können, müssen wir diese Sprache verstehen“, sagt er. Das Auge bietet sich als Forschungsobjekt an, findet er heute, wo man weiß, dass es weit mehr kann als eine Kamera. Die Bilder werden bereits auf dem Weg ins Gehirn verarbeitet: „Die Berechnungen in der Netzhaut sind sehr viel komlexer als gedacht.“ Gleichzeitig ist die Netzhaut sehr einfach aufgebaut – nur das Geheimnis der Bildverarbeitung muss noch gelüftet werden. Aber das ist ein großes Nur.

Gemeinsam mit experimentell arbeitenden Kollegen erforscht Berens seit einigen Jahren die so genannten Ganglien-Zellen, eine Zellschicht im Auge, die letzte Station, bevor die Informationen ans Gehirn weitergeleitet werden. Die Wissenschaftler knüpfen damit an eine lange Geschichte in den Neurowissenschaften an. Schon im 19. Jahrhundert sind einige dieser Zellen anatomisch untersucht worden, unter anderem von Santiago Ram´on y Cajal, „dem Einstein der Neurowissenschaften“, wie Berens sagt. Nur standen diesem im Vergleich zu heute begrenzte Möglichkeiten zur Verfügung. „Die bisherige Textbuchmeinung ging von einer Handvoll solcher Zellen aus“, sagt Berens. Er und seine Kollegen haben bis heute schon mehr als 30 kategorisiert und gehen von einer Existenz von etwa 40 Ganglien-Zellen aus.

Grundlage für diese Erkenntisse ist eine Masse an Daten – und entsprechende maschinelle Techniken, um mit dieser umzugehen. Mehr als 11.000 solcher Ganglien-Zellen untersuchten Berens Kollegen experimentell. Seine Aufgabe war, passende algorithmische Verfahren zu entwickeln, um daraus verschiedene Zelltypen zu klassifizieren. „Früher hätte man die Antwortmuster von Hand sortiert“, sagt Berens. Eine kaum zu bewältigende Fleißarbeit, und, was Berens mehr stört: nicht besonders objektiv. Aber ist eine Bearbeitung via Algorithmus objektiver? „Zumindest kann ich meine Ergebnisse mitsamt dem Code online stellen, und jeder kann das nachvollziehen.“

Aber wie überhaupt kann man aus so einem riesigen, 20 mal größeren Datensatz als die bisheriger Studien sinnvolle Muster extrahieren? „Eine Intuition für Daten“, antwortet Berens, sei die erste notwendige Stärke. Ein Gefühl dafür, was echte Effekte sein könnten. Der Forscher spielt dafür erstmal mit den Daten, wie er sagt, „man muss sie kneten wie einen Teig“, sie von allen Seiten und auf verschiedene Arten genau anschauen. Wenn er dann irgendwann einen in seinen Augen tauglichen Algorithmus programmiert hat, kommt etwas ins Spiel, das im Zusammenhang mit solcherlei Bigdata-Ansätzen oft vernachlässigt wird: der Abgleich mit der Realität, um falsche Wege und Sackgassen zu erkennen.

Dafür koppelt sich Berens immer wieder mit seinen Kollegen rück – eine enge Zusammenarbeit zwischen Informatikern und Experimentatoren, wie man sie selten findet.  Reibungspunkte und Zeiten des Zweifels wird es noch viele geben auf seinem Weg. Aber immer dann, wenn die Modelle andere Ergebnisse liefern als die Messungen an lebenden Zellen, haben die Forscher eine Wissenslücke entdeckt. Und das ist der erste Schritt, um sie zu schließen.

Ähnliche Artikel

  • Was macht eigentlich der Molekularpsychologe Christian Montag?Was macht eigentlich der Molekularpsychologe Christian Montag? Bild der Wissenschaft 01/2016 Einige ereignisreiche Tage im Leben des jungen Professors, der sich wie ein Detektiv auf die Spuren der Internetsucht begibt. Ping! Christian Montag ist […]
  • Die Geister der Überwachung will er nicht gerufen habenDie Geister der Überwachung will er nicht gerufen haben Stuttgarter Zeitung, 15. September 2015 Frieder Nake ist einer der Pioniere der Informatik und der Vater der Computerkunst. Aber was die Menschen heute mit den Maschinen machen, das […]
  • Alzheimer schon im Gehirn Zwanzigjähriger?Alzheimer schon im Gehirn Zwanzigjähriger? Berliner Zeitung, 23. Oktober 2015 Bestimmte Gehirnzellen zeigen bei jungen Probanden mit genetisch erhöhtem Alzheimer-Risiko eine deutliche Beeinträchtigung. Forscher hoffen mit dieser […]
  • Künstliche Intelligenz mit handfesten VorurteilenKünstliche Intelligenz mit handfesten Vorurteilen Spektrum der Wissenschaft/spektrum.de, 13. April 2017 - Link In der Computerlinguistik nimmt eine Debatte über die Ethik des Faches an Fahrt auf: zwei aktuelle Veröffentlichungen […]
  • Die perfekte ErinnerungDie perfekte Erinnerung DIE ZEIT, 21. Januar 2016 Lässt sich alles, was wir erleben, digital speichern? Informatiker arbeiten daran. Wie ich Teil eines Experiments wurde. Der Cyborg, der mir im Frühling […]
  • „Löschen trifft die Falschen“„Löschen trifft die Falschen“ Technology Review 02/16, Februar 2016 Politiker fordern Propagandamaterial von Terrororganisationen wie dem IS im Internet zu löschen. Sinnlos, sagt Zahed Amanullah vom Institute for […]