| | Credit Risk Management

Machine Learning erklärbar machen – wie Erklärbarkeit die Akzeptanz von Advanced Analytics im Finanzbereich verbessert

Im Finanzbereich gibt es vielfältige Möglichkeiten, mit Machine-Learning-Modellen bestehende Prozesse zu verbessern. Im Laufe meiner Karriere habe ich schon viele Unternehmen bei der Entwicklung und Implementierung solcher Modelle im Risiko- und Betrugsmanagement unterstützt.

Machine Learning hat den methodischen Baukasten hervorragend erweitert. Die neuen Werkzeuge erfreuen sich immer größerer Beliebtheit.

Mit der zunehmenden Verbreitung von Machine Learning werden aber auch die skeptischen Stimmen immer lauter. Entscheidungen, die von einem Algorithmus getroffen werden, sind auf den ersten Blick schwer nachvollziehbar. Aus Sicht eines Außenstehenden werden die Daten in ein Modell eingegeben, das dann in einer Blackbox seinen „Zauber“ wirken lässt und schließlich ein Ergebnis liefert, das von logisch, unlogisch, hilfreich, ungerecht, erwartet bis einfach nur kryptisch scheinbar alles sein kann.

Um die Verbreitung von Machine Learning Methoden weiter voranzutreiben, ist es wichtig, dass alle Beteiligten die gelieferten Ergebnisse verstehen und interpretieren können. Dadurch erhöht sich zum einen die Akzeptanz für den Einsatz von künstlicher Intelligenz in Unternehmen, die KI zur Optimierung ihrer Finanzentscheidungen nutzen, aber auch die Akzeptanz bei Aufsichtsbehörden und die Akzeptanz der Öffentlichkeit, die von den Entscheidungen der Algorithmen betroffen ist.

Die gute Nachricht lautet, dass die Akzeptanz von Machine-Learning-Modellen deutlich gesteigert werden kann, wenn verschiedene Ansätze zur besseren Erklärbarkeit zum Einsatz kommen.

Globale Erklärbarkeit: Wie das Modell Entscheidungen trifft

Zunächst trägt die globale Erklärbarkeit dazu bei, die allgemeine Funktionsweise des Modells zu verstehen. Globale Erklärbarkeit bedeutet, eine Antwort auf Fragen wie „Welche Kriterien wurden für die Entwicklung des Modells verwendet und wie wichtig ist jeder einzelne Aspekt für das Ergebnis?“ zu geben. Nutzt man etwa maschinelles Lernen zum Zwecke der Betrugsprävention und -erkennung, so werden Features wie die Metadaten eines Geräts, Benutzerkonto-Daten und personenbezogene Daten wie das Alter eines Benutzers berücksichtigt.

Beim Erstellen eines Machine-Learning-Modells kann jedes dieser Merkmale unterschiedlich wichtig sein. Doch das Zusammenspiel der Merkmale innerhalb eines Modells kann auch ein völlig anderes Bild ergeben. So kann das Benutzeralter als alleinstehende Variable beispielsweise von untergeordneter Bedeutung sein. Eine Auswertung in Kombination mit den Gerätedaten kann das Benutzeralter jedoch zu einem interessanten Merkmal für ein Machine-Learning-Modell zur Betrugsbekämpfung werden lassen. Durch Automated Feature Engineering können zudem neue Features erstellt werden.

Lokale Erklärbarkeit: Einzelne Entscheidungen erklären

Doch auch die lokale Erklärbarkeit spielt eine wichtige Rolle. So kann es vorkommen, dass ein Benutzer überrascht feststellt, dass er Waren und Dienstleistungen nur gegen Vorkasse erhält (da er als potenzieller Betrüger eingestuft wird). In diesem Fall kann jedes Merkmal des Modells mit den Daten und dem Verhalten des Kunden abgeglichen werden, um zu erklären, auf welche Weise und wieso dieses Ergebnis zustande kam.

Obwohl die Erklärbarkeit ein wesentlicher Faktor für den Erfolg und die Akzeptanz von Machine-Learning-Modellen ist, wird sie in der Konzeptionsphase eines Modells nicht immer berücksichtigt. Welche Erfahrungen haben Sie mit Explainable Machine Learning gemacht? Verwenden Sie in Ihrem Unternehmen Machine-Learning-Modelle? Wie gehen Sie mit dieser Herausforderung um? Ich freue mich über eine E-Mail mit Ihren Fragen, Erfahrungen oder Kommentaren.

Ähnliche Beiträge