Menü

Erklärbare KI: Was ist das? Wie funktioniert das? Welche Rolle spielt dabei das Datenmanagement?

Junge und Frau, die zusammen an einem Computer arbeiten
Inhalt

Diese Seite teilen

Mike McNamara
Mike McNamara

Mit dem erweiterten Einsatz von künstlicher Intelligenz (KI) müssen Unternehmen wichtige und oft schwierige Fragen beantworten: Wird die KI verantwortungsbewusst eingesetzt? Wie ist die KI auf diese Ergebnisse gekommen? Sind die Entscheidungswege der KI erklärbar? Da allen KI-Prozessen Daten zugrunde liegen, behandeln wir in diesem Blogbeitrag wichtige KI-Fragen unter dem Aspekt von Daten, Datenmanagement und Daten-Governance. Dieser zweite Beitrag der dreiteiligen Reihe zum Einsatz von künstlicher Intelligenz widmet sich daher dem Thema Erklärbare KI (Explainable AI, XAI). Der letzte Beitrag der Reihe wird sich mit föderiertem Lernen befassen.

Der erste Beitrag in dieser Reihe diskutierte die vier Grundsäulen verantwortungsvoller und ethischer KI: Fairness, Privatsphäre, Sicherheit und Interpretierbarkeit (auch bekannt als Erklärbarkeit). KI-Modelle sind mittlerweile in alle Aspekte unseres Lebens integriert und nehmen Einfluss auf wichtige Entscheidungen, z. B. welche Bewerber eingestellt oder welche Kredite genehmigt werden. Die erklärbare künstliche Intelligenz (XAI) liefert wichtigen Einblick, wie ein KI-Modell zu den getroffenen Entscheidungen kommt, und trägt dazu bei, Fehlerquellen in diesem Vorgang zu identifizieren.

Dieser Beitrag untersucht, warum erklärbare KI wichtig ist, welche Herausforderungen damit verbunden sind und welche wichtige Rolle Daten dabei spielen.

Erklärbare KI – leicht gemacht

Zunächst gilt es zu verstehen, was genau XAI ist und warum sie gebraucht wird. KI-Algorithmen funktionieren oft wie eine „Black Box“ – sie nehmen Eingaben an und liefern dann ein Ausgabe, ohne ihr Innenleben preiszugeben. Das Ziel der XAI besteht darin, die Logik hinter der Ausgabe eines Algorithmus für den Menschen nachvollziehbar zu machen.

Viele KI-Algorithmen verwenden beispielsweise Deep Learning, bei dem Algorithmen auf der Basis von großen Trainingsdatensätzen  lernen, Muster zu erkennen. Deep Learning ist ein Ansatz für neuronale Netze, der die innere Vernetzung unseres eigenen Gehirns imitiert. Wie bei menschlichen Denkprozessen lässt sich nur sehr schwer oder auch überhaupt nicht nachvollziehen, auf welchem Entscheidungsweg ein Deep-Learning-Algorithmus zu einer Vorhersage oder Entscheidung gekommen ist.

Personalentscheidungen und Entscheidungen im Bereich der Finanzdienstleistungen zur Kreditwürdigkeit und -vergabe haben eine hohe Tragweite und bedürfen daher einer Erklärungsmöglichkeit. Auch wenn in diesen Anwendungsfällen niemand körperlich zu Schaden kommt, wenn einer dieser Algorithmen eine negative Empfehlung ausspricht, gibt es viele Beispiele, bei denen die Folgen verheerend sein können.

Im Gesundheitswesen werden Deep-Learning-Algorithmen zunehmend bei bestimmten Anwendungsfällen eingesetzt, beispielsweise dem Krebs-Screening. Hier ist es für Ärzte äußerst wichtig zu verstehen, warum ein Algorithmus eine bestimmte Diagnoseentscheidung getroffen hat. Ein falsch-negativer Befund könnte für einen Patienten bedeuten, dass er oder sie keine lebensrettende Behandlung erhält. Ein falsch-positives Ergebnis hingegen kann dazu führen, dass ein Patient eine teure und invasive Behandlung durchläuft, die gar nicht notwendig ist. Für Radiologen und Onkologen, die den wachsenden Nutzen von KI voll ausschöpfen möchten, ist daher eine umfassende Erklärbarkeit unerlässlich.

Flussdiagramm

Das Prinzip von erklärbarer KI

Um den Gedanken weiterzuführen, was XAI ausmacht, definiert das National Institute of Standards (NIST), das zum US-amerikanischen Handelsministerium gehört, vier Prinzipien für erklärbare künstliche Intelligenz:

  • Erklärung: Ein KI-System muss „Beweise, ergänzende Informationen oder einen Entscheidungsweg für jedes Ergebnis“ liefern.
  • Relevanz: Ein KI-System muss Erklärungen liefern, die von den Adressaten verstanden werden.
  • Korrektheit der Erklärung: Eine Erklärung muss den korrekten Weg widerspiegeln, mit dem das KI-System zu einem Ergebnis gekommen ist.
  • Wissensgrenzen: Ein KI-System darf ausschließlich für den Zweck betrieben werden, für den es entwickelt wurde, und keine Ausgabe erstellen, wenn keine ausreichende Zuverlässigkeit für ein Ergebnis gegeben ist.

Beispiele für XAI-Prinzipien

Hier sind einige Beispiele, wie diese Prinzipien umgesetzt werden können.

Erklärung
NIST definiert fünf Arten von Erklärungen:

  • Informieren des Nutzers über einen Algorithmus. Ein offensichtliches Beispiel wäre, dass die KI eine Erklärung abgibt, warum ein Darlehen genehmigt oder abgelehnt wurde.
  • Aufbau gesellschaftlichen Vertrauens in ein KI-System. Um das Vertrauen in die Ergebnisse zu erhöhen, begründen einige Arten von Erklärungen, welches Modell und welchen Ansatz sie gewählt haben, anstatt eine bestimmte Ausgabe zu erklären. Dazu gehört unter anderem, den Zweck des Algorithmus zu erklären, wie er erstellt wurde, welche Daten verwendet wurden, woher diese stammen und welche Stärken und Grenzen der Algorithmus hat.
  • Einhaltung von Compliance- oder gesetzlichen Vorgaben. Da KI-Algorithmen in regulierten Branchen zunehmend an Bedeutung gewinnen, muss nachweisbar sein, dass sie die Vorschriften einhalten. So sollten KI-Algorithmen für autonomes Fahren erklären, wie sie es schaffen, geltende Verkehrsvorschriften einzuhalten.
  • Unterstützung bei der weiteren Systementwicklung. Während der KI-Entwicklung müssen technische Mitarbeiter nachvollziehen können, wo und warum ein System eine fehlerhafte Ausgabe erzeugt, damit sie das System verbessern können.
  • Mehrwert für den Besitzer des Algorithmus. In allen Branchen implementieren Unternehmen KI und erwarten sich daraus deutliche Vorteile. Ein Streaming-Dienst profitiert beispielsweise von erklärbaren Empfehlungen, die Nutzer dazu bewegen, den Service (weiterhin) zu abonnieren.

Relevanz
Das Prinzip der Relevanz wird erfüllt, wenn ein Adressat die bereitgestellte Erklärung versteht. Für denselben KI-Algorithmus kann es verschiedene Arten von Adressaten geben, die Erklärungen benötigen. Im Beispiel mit dem selbstfahrenden Auto würde eine Erklärung, die dem Fahrer des Autos genügt (z. B. „die KI wertet die Plastiktüte auf der Straße als Stein und ergreift daher Maßnahmen, um eine Kollision zu vermeiden“), nicht dem Bedürfnis eines KI-Entwicklers gerecht, der versucht, dieses Problem zu beheben. Der Entwickler muss verstehen, warum die Plastiktüte falsch klassifiziert wurde.

Korrektheit der Erklärung
Die Korrektheit der Erklärung ist etwas anderes als die Korrektheit der Ausgabe. Ein KI-Algorithmus muss genau erklären, wie die Ausgabe erreicht wurde. Wenn ein Algorithmus zur Kreditvergabe eine Entscheidung damit erklärt, dass sie auf Basis des Einkommens und der Schuldenlast eines Antragstellers getroffen wurde, während die Entscheidung tatsächlich aber auf der Postleitzahl des Antragstellers basierte, ist die Erklärung nicht korrekt.

Wissensgrenzen
Ein KI-System kann auf zweierlei Weise an seine Wissensgrenzen stoßen. Die Eingabe könnte außerhalb des Kompetenzbereichs des Systems liegen. NIST führt hierzu das Beispiel eines Klassifizierungssystems für Vogelarten an: Wenn als Eingabe das Bild eines Apfels bereitgestellt wird, sollte das System erklären, dass die Eingabe kein Vogel ist. Wird dem System alternativ ein verschwommenes Bild gezeigt, sollte es melden, dass es den Vogel im Bild nicht identifizieren kann oder dass die Identifizierung mit sehr geringer Zuverlässigkeit erfolgt.

Wie funktioniert erklärbare KI?

Die genannten Prinzipien helfen dabei, die von XAI erwartete Ausgabe zu definieren, sie bieten allerdings keine Anleitung, wie sich diese Ausgabe erreichen lässt. Es kann daher nützlich sein, XAI in drei Kategorien zu unterteilen:

  • Erklärbare Daten: Welche Daten flossen in das Training eines Modells ein? Warum wurden diese Daten ausgewählt? Inwiefern wurde auf Fairness geachtet? Wurden Anstrengungen unternommen, um Voreingenommenheit zu unterbinden?
  • Erklärbare Vorhersagen: Welche Merkmale eines Modells wurden aktiviert oder verwendet, um eine bestimmte Ausgabe zu erreichen?
  • Erklärbare Algorithmen: Aus welchen einzelnen Schichten besteht das Modell, und wie führen sie zur Ausgabe oder Vorhersage?

Gerade für neuronale Netze sind erklärbare Daten die einzige Kategorie, die einfach zu erreichen ist – zumindest theoretisch. Viele Forschungsprojekte sind darauf fokussiert, wie man erklärbare Vorhersagen und Algorithmen erreicht. Es gibt zwei aktuelle Ansätze zur Erklärbarkeit:

  • Proxy-Modellierung: Ein anderer Modelltyp, wie z. B. ein Entscheidungsbaum, wird verwendet, um das tatsächliche Modell näherungsweise zu bestimmen. Da es sich um eine Annäherung handelt, kann es sich von den tatsächlichen Ergebnissen des Modells unterscheiden.
  • Design, das auf Interpretierbarkeit ausgelegt ist: Die Modelle sind so konzipiert, dass sie leicht zu erklären sind. Bei diesem Ansatz besteht das Risiko, die Vorhersagekraft oder die Gesamtgenauigkeit eines Modells zu verringern.

Erklärbare Modelle werden manchmal auch als „White-Box“-Modelle bezeichnet. Wie bereits in einem der letzten Blogs angemerkt: Mit erklärbarer White-Box-KI können die Adressaten die Gründe für die Entscheidungen der KI besser nachvollziehen, wodurch die Popularität des KI-Einsatzes im Unternehmensumfeld steigt. Diese Modelle sind technisch nicht so beeindruckend wie Black-Box-Algorithmen. Zu den Erklärungstechniken gehören Entscheidungsbäume, Bayessche Netze, Sparse Grid-Modelle/verschlankte lineare Modelle und andere.

Forscher sind auch auf der Suche nach Möglichkeiten, um Black-Box-Modelle erklärbarer zu machen, zum Beispiel durch die Einbeziehung von Wissensgraphen (Knowledge Graphs) und anderen grafischen Techniken.

Daten und erklärbare KI

Erklärbare Daten sind die erreichbarste Kategorie von XAI. Angesichts der großen Datenmengen, mit denen ein KI-Algorithmus trainiert werden kann, ist „erreichbar“ jedoch nicht so einfach, wie es sich anhört. Der GPT-3-Algorithmus für natürliche Sprache ist ein extremes Beispiel. Obwohl das Modell in der Lage ist, menschliche Sprache nachzuahmen, hat es während des Trainings auch eine Menge toxischer Inhalte aus dem Internet aufgenommen.

Google merkt dazu an: Ein „KI-System lässt sich am besten anhand der ihm zugrunde liegenden Trainingsdaten und Trainingsprozesse sowie dem daraus resultierenden KI-Modell verstehen.“ Dieses Verständnis setzt die Fähigkeit voraus, einem trainierten KI-Modell den Datensatz zuzuordnen, mit dem es trainiert wurde, inklusive der Möglichkeit, die verwendeten Daten einzusehen, auch wenn das Training einer Version des Modells Jahre zurückliegt.

Husky-Vergleich

Eine der einfachsten Möglichkeiten, die Erklärfähigkeit eines Modells zu verbessern, besteht darin, genau darauf zu achten, mit welchen Daten das Modell trainiert wird. In der Designphase müssen die Entwickler festlegen, woher die Daten für das Training eines Algorithmus bezogen werden sollen, ob diese Daten – vorausgesetzt, sie existieren bereits – rechtlich und ethisch einwandfrei erfasst wurden, ob sie Voreingenommenheiten enthalten und wie diese Voreingenommenheiten beseitigt werden können. Dies ist ein verantwortungsvolle Aufgabe, die nicht unterschätzt werden sollte: 67 % der Unternehmen nutzen für ihre KI mehr als 20 Datenquellen.

Zudem sollten Sie ganz bewusst solche Daten ausschließen, die irrelevant sind bzw. sich nicht auf das Ergebnis auswirken. Weiter oben erwähnte ich die Möglichkeit, dass ein Kreditvergabe-Algorithmus Entscheidungen zu einem großen Teil auf der Postleitzahl der Antragsteller basieren könnte. Die beste Methode, um sicherzustellen, dass die Ausgabe eines Algorithmus nicht auf einem Faktor basiert, der eigentlich irrelevant sein sollte – wie eine Postleitzahl, die in vielen Fällen stellvertretend für die ethnische Zugehörigkeit steht – ist, diese Daten gar nicht erst in den Trainingsdatensatz oder die Eingabedaten einzubeziehen.

NetApp, erklärbare KI und Ihr Unternehmen

Da erklärbare Daten für den XAI-Einsatz essenziell sind, sollten Sie als Unternehmen Best Practices für Datenmanagement und Daten-Governance implementieren. Zu diesen Best Practices gehört auch die vollständige Rückverfolgbarkeit der Datensätze, die für das Training jeder Version eines von Ihnen eingesetzten KI-Modells verwendet werden.

Bei NetApp sind wir darauf spezialisiert, Unternehmen bei der optimalen Nutzung ihrer Daten zu unterstützen. Unsere Lösungen helfen Ihnen, Ihre Daten überall zu verwalten – lokal und in der Cloud. Wir sorgen dafür, dass Ihre Daten zugänglich, geschützt und kostenoptimiert gespeichert sind.

NetApp KI-Experten können Sie beim Aufbau einer Data Fabric – einer einheitlichen Datenmanagement-Umgebung, die alle Ihre Edge-Geräte, Datacenter und Public-Clouds umfasst – unterstützen. Diese sorgt dafür, dass Ihre KI-Daten effizient aufgenommen, erfasst, gespeichert und gesichert werden.

NetApp KI-Lösungen bieten Ihnen die nötigen Tools, mit denen Sie Ihre KI-Projekte ausbauen können.

  • ONTAP AI beschleunigt alle Facetten des KI-Trainings und der KI-Inferenz.
  • NVIDIA DGX Foundry mit NetApp ermöglicht die Entwicklung erstklassiger KI-Modelle, ohne dass Sie von Null anfangen müssen.
  • Die NetApp AI Control Plane kombiniert MLOps und NetApp Technologie, um das Datenmanagement zu vereinfachen und Versuchsreihen zu ermöglichen.
  • Das NetApp Data Ops Toolkit vereinfacht das Management großer, für KI erforderliche Datenmengen.
  • NetApp Cloud Data Sense unterstützt Sie bei der Erkennung, Zuordnung und Klassifizierung von Daten. Es analysiert Ihre breite und wachsende Zahl von Datenquellen – ob strukturiert oder unstrukturiert, in der Cloud oder On-Premises.

Durch die Einführung der NetApp AI Control Plane und des Data Ops Toolkit kann Ihr Team die Daten effizient und sicher managen und gleichzeitig die Rückverfolgbarkeit und Reproduzierbarkeit gewährleisten, was eine wichtige Grundlage für erklärbare Daten ist.

Informationen darüber, wie NetApp Sie mit Datenmanagement und Daten-Governance unterstützen kann, die wichtige Voraussetzung für erklärbare KI sind, finden Sie unter netapp.com/de/artificial-intelligence/.

Mike McNamara

Mike McNamara ist Senior Leader of Product and Solution Marketing bei NetApp und blickt auf 25 Jahre Erfahrung im Marketing für Datenmanagement und Daten-Storage zurück. Vor seinem Wechsel zu NetApp vor über 10 Jahren arbeitete Mike bei Adaptec, EMC und HPE. Mike war einer der wichtigsten Teamleiter bei der Einführung einer First-Party-Storagelösung und der branchenweit ersten KI/ML-Lösung mit Cloud-Anbindung (NetApp), des einheitlichen Scale-out- und Hybrid-Cloud-Storage-Systems und der dazugehörigen Software (NetApp), des iSCSI- und SAS-Storage-Systems und der dazugehörigen Software (Adaptec) sowie des Fibre Channel-Storage-Systems (EMC CLARiiON).

Nachdem er bereits der Marketing Chair für die Fibre Channel Industry Association war, ist er nun Mitglied des Ethernet Technology Summit Conference Advisory Board und der Ethernet Alliance. Er schreibt regelmäßig Beiträge für Branchenzeitschriften und spricht häufig bei entsprechenden Veranstaltungen. Darüber hinaus veröffentlichte Mike bei FriesenPress ein Buch mit dem Titel „Scale-Out Storage - The Next Frontier in Enterprise Data Management“ und wurde bei Kapos als einer der Top 50 B2B-Produktvermarkter gelistet, die es zu beobachten gilt.

Alle Beiträge von Mike McNamara anzeigen

Hilfreiche Links

Drift chat loading