Visualisierung von XAI Interpretationen für Zeitreihenvorhersage


Bei der Anwendung von Modellen besteht die Notwendigkeit einzelne Entscheidungen und das Modell interpretierbar bzw. erklärbar zu machen. White-Box-Modelle wie bspw. Lineare Regression können interpretiert bzw. erklärt werden, aber sind limitiert in ihrer Performance, vor allem dann, wenn der Daten generierende Prozess von dem Modell abweicht. Daher werden oftmals empirische, datenbasierte Machine Learning Modelle verwendet, da diese beim Modellieren kein bis wenig Expertenwissen über die Daten erfordern. Viele dieser sind jedoch Grey- bzw. Black-Box-Modelle, daher sehr komplexe, aber performante Modelle, die gar nicht bis kaum durch das Modell erklärbar sind und keine Inferenz gestatten. Dadurch sind Ergebnisse nicht nachvollziehbar und das Modellverhalten kann nicht erklärt werden.

In Explainable AI (XAI), einem Teilgebiet der Künstlichen Intelligenz, werden Methoden entwickelt, um solche Modelle nachvollziehbar zu machen. Neben der Entwicklung von XAI Methoden müssen auch geeignete Darstellungsformen gefunden werden, um die Interpretationen zu veranschaulichen, bspw. für komplexe Zeitreihendaten z.B. multivariate Zeitreihen.

Das Ziel dieser Arbeit ist geeignete Visualisierungen von Interpretationen verschiedener XAI Methoden für (multivariate) Zeitreihenvorhersagen zu finden. Dabei sollen Darstellungen entwickelt werden, welche die Vergleichbarkeit von Interpretationen über verschiedene Prognosemodelle bzw. XAI Methoden ermöglichen.

Dieses Thema ist nur als Bachelorarbeit geeignet.

Voraussetzungen

Literatur


Forschungsschwerpunkt


Betreuer / Ansprechpartner

Marius Sterling
marius.sterling@dai-labor.de