Viele Branchen setzen KI in ihren Arbeitsabläufen ein, weil sie nachweislich Effizienz und Produktivität steigert. Banken nutzen etwa KI, um festzustellen, ob ein Antragsteller für einen Immobilienkredit in Betracht kommt. Der Einsatz von KI in diesem Bereich ist von Vorteil, da die Modelle viele Variablen berücksichtigen, um vorherzusagen, ob der Antragsteller den Kredit zurückzahlen kann, was für die Bank von Vorteil ist. Außerdem führen diese Modelle komplexe Vorhersagen in einer Geschwindigkeit durch, die Menschen niemals erreichen könnten.
Diese herausragende Leistung und Geschwindigkeit haben nicht nur Vorteile. Durch sie steigert sich die Komplexität des Modells, die einen Punkt erreicht, an dem die internen Mechanismen des Modells so undurchsichtig werden, dass es einem schwarzen Kasten, einer „Blackbox“, gleicht. Infolgedessen gibt es keine Möglichkeit, den Denkprozess zu verstehen, der zu einer Vorhersage geführt hat, Vorhersagen auf Verzerrungen zu überprüfen oder gegen eine Vorhersage zu argumentieren.
Wenn das KI-Modell in einem Fall wie dem Bank-Beispiel einen Antragsteller nicht anerkennt, kann dieser im schlimmsten Fall mit schwerwiegenden finanziellen Konsequenzen konfrontiert sein. Zudem gibt es keine Möglichkeit zu erfahren, was der Antragsteller ändern muss, um eine Genehmigung zu erhalten. Solche folgenschweren Szenarien kommen häufig vor, und KI-Modelle können auch in Produktionsumgebungen Fehler machen, die den Unternehmen Geld kosten.
Regulierungsbehörden und Industrie müssen daher KI-Modelle für ihre Vorhersagen zur Verantwortung ziehen. Das Europäische Parlament hat diese Idee bereits verstanden und daher Schritte in Richtung dieses Ziels in die DSGVO integriert.
Der offene Brief „Pause Giant AI Experiments: An Open Letter“, der von derzeit 10.000 Unterzeichnern unterstützt wird, darunter berühmte Akteure wie Steve Wozniak, Elon Musk, Yoshua Bengio und Gary Marcus, kritisiert jedoch die fehlende Planung, mangelndes Management und Ungewissheit, was potenziell unkontrolliertes Wachstum von fortgeschrittener KI betrifft.
Ein Schlüsselwort, das hier Antworten liefern könnte: „verstehen“.
Schadenspotenzial kann bereits bei weit weniger fortgeschrittener KI beobachtet werden. Im offenen Brief werden auch die Anforderungen an fortgeschrittene KI beschrieben: genau, sicher, interpretierbar, transparent, robust, abgestimmt, vertrauenswürdig und loyal. Einiger dieser Eigenschaften sind Nebenprodukte erfolgreich implementierter Methoden der erklärbaren KI (XAI). Aspekte wie Sicherheit, Interpretierbarkeit, Transparenz und Abstimmbarkeit sind Grundprinzipien der XAI. Ihre Kernziele bestehen darin, die inneren Mechanismen (oder das Denken) von KI-Modellen zu verstehen, einschließlich „Blackbox“-Modelle und etwaige Entscheidungen für Endbenutzer verständlich zu machen.
Wenn KI-Modelle eine Vorhersage treffen, ist das oft das Ende der Unterhaltung – das trägt zu ihrem Schadenspotenzial bei. Es muss Nutzern möglich sein, herausfinden, ob die Logik hinter der Vorhersage stimmig ist. XAI zielt darauf ab, die Konversation in Gang zu halten, um aufzuzeigen, warum das Modell zu seiner Vorhersage gekommen ist (und warum es nicht etwas anderes vorhergesagt hat). Die Bemühungen von XAI werden den betroffenen Nutzern und darüber hinaus auch den Unternehmen erheblich zugutekommen. Giganten wie Volvo haben bereits Effizienzsteigerungen festgestellt, als sie XAI-Methoden in ihre industriellen Prozesse integriert haben.
Know Center CIO, Roman Kern:
„Explainable AI (XAI) ist ein faszinierender Ansatz, der darauf abzielt, die Art und Weise, wie Maschinen zu ihren Ergebnissen kommen, und das menschliche Denken „kompatibel“ zu machen. Die erste Herausforderung besteht darin, sicherzustellen, dass die Entwickler und Forscher, die KI-Modelle erstellen, auch verstehen, wie sie funktionieren, insbesondere wenn sie auch auf Daten angewendet werden, die zum Zeitpunkt der Erstellung der Modelle nicht verfügbar waren. Neben visuellen Methoden können hier auch Kausalmodelle (Kontrafakturen) eingesetzt werden. Letzteres ist auch deshalb besonders spannend, weil Menschen intuitiv Ursache-Wirkungs-Ketten verstehen, während KI-Modelle ihre Entscheidungen immer noch allein auf Basis von Assoziationen berechnen.“
Am Know Center gehen wir einen Schritt weiter. Wir bieten nicht nur effiziente, korrekte und fundierte Erklärungen an, sondern wollen auch die Menschen verstehen, an die sich unsere Erklärungen richten, und diese Erklärungen auf sie zuschneiden. Kurz gesagt: Es reicht nicht aus, Erklärungen zu liefern, wir müssen auch sicherstellen, dass die Empfänger sie verstehen.