Prof. Ute Schmid

Head of Cognitive Systems Group - Universität Bamberg

„Nachvollziehbares Maschinelles Lernen / Interpretable Machine Learning“

Seit dem „Big Bang“ von Ansätzen des Deep Learning wird das Thema Machinelles Lernen in immer mehr Anwendungsbereichen aktuell. Vor allem in sicherheitskritischen Bereichen wird zunehmen erkannt, dass nicht nur hohe Genauigkeit, sondern auch Transparenz und Nachvollziehbarkeit sowie letztlich auch Vertrauenswürdigkeit und Haftungssicherheit von maschinell gelernten Klassifikatoren relevant sind. Im Vortrag werden verschiedene Zugänge zum Thema „Explainable AI“ vorgestellt und diskutiert.

Head of Cognitive Systems Group, Universität Bamberg

Ute Schmid ist Professorin für Kognitive Systeme an der Universität Bamberg. Seit den 1990er Jahren forscht und lehrt sie im Bereich Künstliche Intelligenz, insbesondere in den Bereichen Maschinelles Lernen, Induktive Programmierung, Kognitive Modelle des Lernens. Aktuell forscht sie zu Ansätzen der Erklärungsgenerierung für maschinell gelernte Klassifikatoren, insbesondere im Kontext von Systemen zur Diagnoseunterstützung in Medizin und Industrie 4.0.

Schon seit meiner Studienzeit bin ich von der beeindruckenden Mächtigkeit und Vielfalt des menschlichen Lernens fasziniert. Ein wesentlicher Grund, warum ich zur Künstlichen Intelligenzforschung kam und der mich auch heute noch antreibt ist der Versuch, menschliche Intelligenz besser zu verstehen, in dem ich versuche, Teilaspekte maschinell nachzubauen.