Interpretable Machine Learning (oft abgekürzt als Interpretable ML, übersetzt etwa Interpretierbares Maschinelles Lernen) bezeichnet Methoden, mit denen Machine-Learning-Modelle untersucht werden können. Sie werden von Data Scientists, KI-Forscher*innen oder Machine Learning Engineers eingesetzt, um das Verhalten von oft komplexen, aus Daten gelernten Modellen zu analysieren. Interpretable ML kann somit als Teilgebiet von Explainable AI betrachtet werden.
Typische Verfahren ermitteln, welchen Einfluss verschiedene Input-Features (Eingabewerte) auf das Ergebnis haben oder welche Wirkung die einzelnen erlernten Strukturen innerhalb eines Modells haben. Dadurch sind Interpretable-ML-Verfahren sehr gut geeignet, um Fehler aufzudecken oder die Funktionsweise neuer algorithmische Ansätze zu ergründen.
Im Gegensatz zu User-Centric Explainable AI setzen mit Interpretable ML generierte Erklärungen für KI-Systeme mathematisch-technisches Fachwissen und ein gutes Verständnis der inneren Struktur der untersuchten Machine-Learning-Modelle voraus.
Erklärbare KI ist ein weites Themenfeld. Unsere Expert*innen helfen Ihnen beim Einstieg.