Was ist erklärbare KI?

Mit der Weiterentwicklung von Deep-Learning-Technologien wie künstlicher Intelligenz (KI) und maschinellem Lernen (ML) stehen wir vor der Herausforderung, die von Computeralgorithmen erzeugten Ergebnisse zu verstehen. Wie haben zum Beispiel ML-Algorithmen ein bestimmtes Ergebnis erzielt?
Erklärbare KI (oder XAI) umfasst die Prozesse und Werkzeuge, die es menschlichen Nutzern ermöglichen, die von ML-Algorithmen erzeugten Ergebnisse zu verstehen. Unternehmen müssen ihr Vertrauen in KI-Modelle aufbauen, wenn sie diese in die Produktion einführen.
Der gesamte XAI-Prozess wird auch als "Blackbox"-Modell bezeichnet, das direkt aus den generierten Daten erstellt wird. Als Nächstes wollen wir uns einige Anwendungsfälle von Explainable AI ansehen.

Anwendungsfälle von Explainable AI

Hier sind einige der realen Anwendungsfälle von Explainable AI:

Für Texte in natürlicher Sprache:
XAI for Text konzentriert sich auf die Entwicklung von Black-Box-Modellen für textbezogene Aufgaben. Zum Beispiel die Textzusammenfassung von juristischen Dokumenten. In diesem Anwendungsfall können Benutzer XAI for Text anhand der folgenden Überlegungen erkunden und verstehen:
Art der in Frage kommenden textbezogenen Aufgabe
Erläuterung der für die Aufgabe verwendeten Techniken
Die Zielnutzer für die jeweilige XAI-Technik
In ähnlicher Weise kann ein XAI-basiertes Deep-Learning-Modell Textdaten in Form von Bewertungen und Abschriften klassifizieren. Mithilfe von erklärbarer KI können Sie bestimmen, warum das Modell Vorhersagen trifft, die auf den spezifischen Schlüsselwörtern und Ausdrücken im Text basieren.

Sie können XAI for Text auch dazu verwenden, ein Deep-Learning-Modell zu trainieren, um eine Artikelzusammenfassung auf der Grundlage des Quelltextes zu erstellen. Sie können zum Beispiel eine Verteilung von Aufmerksamkeitsscores über ausgewählte Token im Quelltext erhalten. Wörter (mit einem Aufmerksamkeitswert zwischen 0 und 1) werden im Ausgangstext hervorgehoben und den Endbenutzern angezeigt. Je höher der Aufmerksamkeitswert ist, desto dunkler wird der Text hervorgehoben - und desto wichtiger ist das Wort in der Artikelzusammenfassung.

Für visuelle Bilder:
Erklärbare KI wird auch eingesetzt, um die Entscheidungsfindung auf der Grundlage hochauflösender visueller Bilder zu automatisieren. Einige Beispiele für hochauflösende Bilder sind Satellitenbilder und medizinische Daten. Neben der großen Menge an Satellitendaten sind die erfassten Daten hochauflösend und enthalten mehrere Spektralbänder. Zum Beispiel sichtbares und infrarotes Licht. Sie können mit XAI trainierte Modelle einsetzen, um hochauflösende Bilder in kleinere Bereiche zu "zerlegen".

Im Bereich der medizinischen Bilder werden XAI-Modelle verwendet, um Lungenentzündungen anhand von Röntgenbildern zu erkennen. Ähnlich ist die Bilderkennung ein weiterer Anwendungsfall von Explainable AI im Bereich der visuellen Bilder. Mit visueller KI können Sie benutzerdefinierte KI-Modelle trainieren, um Bilder oder Objekte (in aufgenommenen Bildern) zu erkennen.

Für die Statistik:
Die Effektivität von XAI-Modellen und -Algorithmen hängt von ihrem Grad an Genauigkeit oder Interpretation ab. Statistische Beziehungsmodelle wie lineare Regression, Entscheidungsbäume und K-nearest neighborhoods sind leicht zu interpretieren, aber weniger genau. Damit neuronale Netzwerkmodelle interpretierbar und genau sind, müssen hochwertige Daten in das KI-Modell eingespeist werden.

XAI hat ein enormes Potenzial im Bereich der Datenwissenschaft. Explainable AI wird zum Beispiel in den statistischen Produktionssystemen der Europäische Zentralbank (ECB). Durch die Verknüpfung von nutzerzentrierten Desideraten mit "typischen" Nutzerrollen kann die XAI Methoden und Techniken skizzieren, die verwendet werden, um die Bedürfnisse der einzelnen Nutzer zu erfüllen.

Als Nächstes wollen wir die gängigen Tools und Frameworks besprechen, die bei Explainable AI zum Einsatz kommen.

Erklärbare KI - Tools und Rahmenwerke

In letzter Zeit haben KI-Forscher an mehreren Tools und Frameworks gearbeitet, um erklärbare KI zu fördern. Hier ist ein Blick auf einige der beliebtesten:

Was-wäre-wenn: Das vom TensorFlow-Team entwickelte What-If ist ein visuelles, interaktives Tool, das zum Verständnis des Outputs von TensorFlow-KI-Modellen verwendet wird. Mit diesem Tool können Sie einfach Datensätze zusammen mit der Leistung des eingesetzten KI-Modells visualisieren.

LIME: LIME steht für Local Interpretable Model-agnostic Explanation und wurde von einem Forschungsteam an der University of Washington entwickelt. LIME bietet einen besseren Einblick in das, was innerhalb des Algorithmus geschieht. Außerdem bietet LIME eine modulare und erweiterbare Möglichkeit, die Vorhersagen eines beliebigen Modells zu erklären.

AIX360: AI Explainability 360 (oder AIX 360) wurde von IBM entwickelt und ist eine Open-Source-Bibliothek, die zur Erklärung und Interpretation von Datensätzen und Modellen des maschinellen Lernens verwendet wird. AIX360 wurde als Python-Paket veröffentlicht und enthält einen kompletten Satz von Algorithmen, die verschiedene Erklärungen und Metriken abdecken.

SHAP: SHAP ist die Abkürzung für Shapley Additive Explanations und ein spieltheoretischer Ansatz zur Erklärung der Ergebnisse eines beliebigen maschinellen Lernmodells. Durch die Verwendung von Shapley-Werten aus der Spieltheorie kann SHAP optimale Kreditzuweisungen mit lokalen Erklärungen verbinden. SHAP ist mit PyPI oder Conda Forge einfach zu installieren.

Schlussfolgerung

Unternehmen müssen ein vollständiges Verständnis ihrer KI-gestützten Entscheidungsprozesse durch KI-Überwachung haben. Explainable AI ermöglicht es Unternehmen, ihre eingesetzten ML-Algorithmen und tiefen neuronalen Netze einfach zu erklären. Es hilft effektiv beim Aufbau von geschäftlichem Vertrauen zusammen mit dem produktiven Einsatz von KI- und ML-Technologien.

de_DEDeutsch