News - Detail

Verstehen und Sehen: Prof. Dr. Zeynep Akata und Prof. Dr. Andreas Geiger forschen in Tübingen an Künstlicher Intelligenz. Fotos: Friedhelm Albrecht/Universität Tübingen

Wie Maschinen ihre Umgebung sehen und Entscheidungen treffen

Der Europäische Forschungsrat gewährt den Tübinger Informatikern  Prof. Dr. Zeynep Akata und Prof. Dr. Andreas Geiger jeweils rund eineinhalb Millionen Euro Startfinanzierung für ihre Forschungsarbeit im Bereich der Künstlichen Intelligenz.

Geigers Projekt "LEGO-3D"  soll die Wahrnehmung autonomer Fahrzeuge und anderer künstlicher intelligenter Systeme verbessern. KI-Systeme basieren auf maschinellem Lernen. Damit beispielsweise ein autonomes Fahrzeug Objekte in seiner Umgebung erkennen kann, wird der zuständige Algorithmus in der Trainingsphase anhand vieler Beispielbilder trainiert, um später im Einsatz zuverlässig arbeiten zu können. Die Position der Objekte im Bild muss hierzu bislang aufwändig und von Hand bestimmt werden. Eine weitere Schwierigkeit ist die Einschätzung des Verhaltens solcher autonomer Systeme: Ein statischer Datensatz reicht oft nicht aus, weil die Handlungen eines Systems wiederum seine Umgebung beeinflussen und in unvorhersehbarer Weise verändern können. Um diese Hürden zu überwinden und maschinelles Sehen besser und zuverlässiger zu gestalten, will Geiger Modelle entwickeln, die Bilddaten automatisch und in Echtzeit erzeugen können. Die Ergebnisse des Forschungsprojektes sind nicht nur für das hochautomatisierte Fahren wichtig, sondern könnten auch Anwendung in persönlichen Assistenzsystemen, in Produktionsprozessen, sowie im Unterhaltungs- und Bildungsbereich finden. Nach Forschungsarbeiten am Max Planck Institut für Intelligente Systeme und einer Gastprofessur an der ETH Zürich wurde Geiger im März 2018 Professor für „Lernbasierte Computer Vision“ an der Universität Tübingen.

Unter dem Titel Deeply Explainable Intelligent Machines (DEXIM) entwickelt Zeynep Akata Computersysteme, die sich trainieren lassen, um dann die Entscheidungen eines maschinellen Lernsystems nachvollziehbar und transparent zu machen. Dafür nutzt sie die Wechselwirkungen zwischen unterschiedlichen Arten von Daten, berücksichtigt Unsicherheits- und Zeitfaktoren und bezieht Speichermechanismen ein. Während Menschen ihre Entscheidungen mit Blick auf sichtbare Faktoren begründen können, gelten Systeme der künstlichen Intelligenz (KI) häufig als undurchsichtig und für die Nutzer wenig vertrauenserweckend. Selbstlernende Systeme, die beispiespielsweise den Gesundheitszustand von Patienten überwachen, autonome Fahrzeuge steuern oder Wetterdaten für Warnmeldungen auswerten, sollten auch in der Lage sein, ihre Schlussfolgerungen nachvollziehbar zu machen, sagt Akata. Zudem verpflichte die europäische Allgemeine Datenschutzverordnung (GDPR) automatische Entscheidungsträger, die EU-Transparenzstandards einzuhalten. Mit ihrem Team wird sie deshalb an einem Deep-Learning-Ansatz für die Interpretation visueller Szenen arbeiten, der sich trainieren lässt und Entscheidungen transparent macht. Dieser könnte unter anderem in der mobilen Robotik und bei intelligenten Fahrzeugen eingesetzt werden. Zeynep Akata hat technische Informatik an der Trakya Universität in der Türkei studiert. Nach Statiionen in Aachen, Grenoble und Saarbrücken sowie in Amsterdam trat sie im Oktober 2019 die Professur „Maschinelles Lernen“ an der Universität Tübingen an.

Zum Thema
Bosch plant AI Campus im Cyber Valley

Körber-Preis geht an KI-Forscher Schölkopf