Seit Juni 2023 nimmt der „AI-Act“ immer mehr Form an. Das EU-Parlament plant mit der KI-Verordnung erstmals einen gesetzlichen Rahmen für die Entwicklung und Nutzung von Künstlicher Intelligenz (KI) – auch „AI-Act“ genannt:

„Die europäische KI-Strategie zielt darauf ab, die EU zu einem Drehkreuz für KI von Weltrang zu machen und sicherzustellen, dass KI menschzentriert und vertrauenswürdig ist.“ – Europäische Kommission.

Im Zuge dieser Regelung fallen häufig die Begriffe „erklärbare“, „verantwortungsvolle“ und „vertrauenswürdige“ KI.


Schauen wir uns die drei Begriffe genauer an. Was bedeuten sie und welche Eigenschaften muss ein KI-System besitzen, um als verantwortungsvoll, erklärbar und vertrauenswürdig zu gelten?

Tauchen wir ein!

Erklärbare künstliche Intelligenz

Wir starten mit der erklärbaren KI, weil diese ein wichtiger Bestandteil der verantwortungsvollen und vertrauenswürdigen KI ist, denn diese beiden Begriffe umfassen deutlich mehr Voraussetzungen.

Sie haben sicherlich schon einmal von der sog. „Black-Box des maschinellen Lernens“ gehört. Diese Black-Box beschreibt folgendes Phänomen: ein maschinelles Lernen (ML) Algorithmus wird mit Daten gefüttert und wir erhalten ein bestimmtes Ergebnis. Doch wie der Algorithmus auf dieses Ergebnis kommt, also welche Zusammenhänge und Muster er genau gefunden hat, ist unbekannt. Nicht einmal die Ingenieure oder Datenwissenschaftler, die den Algorithmus erstellen, können verstehen oder erklären, was genau in der Black-Box passiert und wie der KI-Algorithmus zu seinen Ergebnissen kommt. Was jedoch bekannt ist – bzw. sein sollte, sind die Daten, die verwendet wurden und die statistischen Modelle, auf denen der Algorithmus beruht.

Erklärbare KI, oder auch XAI („Explainable AI“), ist ein Forschungsgebiet mit einer Vielzahl an Methoden, die versuchen, Licht in die Black-Box-Modelle des maschinellen Lernens zu bringen und das auf Basis der bekannten Parameter. Sie soll KI-Modelle, die erwarteten Auswirkungen und potenzielle Verzerrungen beschreiben.

Nehmen wir als Beispiel einen ML-Algorithmus, der Kundenabwanderung auf Basis von historischen Verkaufsdaten eines Unternehmens vorhersagen soll. Für die Vorhersage wurden verschiedene Parameter verwendet, wie z.B. was, wie viel und wann der Kunde gekauft hat, wann der letzte Kundenkontakt war und ob es Beschwerden gab. Als Ergebnis bekommen wir gesagt: „Der Kunde Z hat eine Abwanderungswahrscheinlichkeit von 80 %.“

Eine Lösung für erklärbare KI wäre hier beispielsweise den Einfluss der Input Daten, auf das Prognose-Ergebnis zu untersuchen. Man könnte einen Parameter entfernen und sehen, ob und wie stark sich die Prognose verändert. Weicht die Prognose deutlich vom vorherigen Ergebnis ab, dann hat der Parameter einen starken Einfluss. Das ist nur eine Möglichkeit, um ML-Modelle erklärbarer zu machen. Das Prinzip an sich klingt bei wenigen Parametern recht einfach, ist jedoch ein sehr großer technischer Aufwand bei vielen Daten und Parametern. Die am schwersten zu verstehende Form des maschinellen Lernens, sind die neuronalen Netze, die beim Deep Learning verwendet werden.

Doch die Vorteile von erklärbarer KI scheinen den Aufwand wert zu sein: mal davon abgesehen, dass erklärbare KI in ein paar Jahren zu den regulatorischen Standards zählen könnte, hilft sie den Entwicklern dabei, sicherzustellen, dass das System wie erwartet funktioniert. Außerdem gibt sie den Endnutzern eine große Sicherheit und kann dazu führen, das Vertrauen in KI in der Geschäftswelt bzw. Gesellschaft zu fördern. Das ist auch der Grund, warum die erklärbare KI ein so wichtiger Bestandteil der verantwortungsvollen und vertrauenswürdigen KI ist.

Das Problem mit verantwortungsvoller und vertrauenswürdiger künstlicher Intelligenz

Kommen wir direkt zum Punkt: es gibt keine einheitliche Definition oder Frameworks dazu, welche Eigenschaften eine KI genau erfüllen muss, um einem der beiden Begriffe zugeordnet werden zu können.

Was es gibt, sind eine Vielzahl an Vorschlägen und Fach(philosophischen) Diskussionen über die Begriffe. Das ist auch kein Wunder, denn wir stehen in diesem Gebiet ganz am Anfang und Regulatorien müssen sich erst einmal entwickeln.

Die beiden Begriffe sind auch nicht klar voneinander abzutrennen, werden fast schon synonym verwendet oder haben mindestens einige Überschneidungen. Es gibt allerdings eine Tendenz, dass sich die verantwortungsvolle künstliche Intelligenz eher auf die Erstellung und Entwicklung der KI bezieht und die vertrauenswürdige KI auf die Nutzung.

Dadurch ist es schwer, die beiden Begriffe zu trennen, da die Entwicklung und die Nutzung von KI sich gegenseitig beeinflussen. Und das wiederum erschwert es KI-Unternehmen, Systeme zu entwickeln, die offiziell als vertrauenswürdig und verantwortungsvoll gelten.

Verantwortungsvolle Künstliche Intelligenz

Grob gesagt, sind mit verantwortungsvoller KI (EN: Responsible AI) alle Bestrebungen gemeint, KI-Systeme in verantwortungsvoller Weise zu entwickeln. Laut dem Gabler Wirtschaftslexikon gehören dazu die Erklärbarkeit (Explainable AI), die Vertrauenswürdigkeit (Trustworthy AI), der Datenschutz, die Verlässlichkeit und die Sicherheit.

Verantwortungsvolle KI ist also ein Begriff, der mehrere Kriterien enthält, die ein KI-System erfüllen sollte. Und diese Kriterien sind nicht einheitlich standardisiert.

Dadurch bleibt Kritik nicht aus. So äußert sich beispielsweise Prof. Dr. Oliver Bendel, Professor für Wirtschaftsinformatik an der FHNW, folgendermaßen:

„Es ist weiter die Frage, wer überhaupt definiert, was verantwortungsvoll ist, und wer davon profitiert, dass bestimmte Systeme entstehen und andere nicht. Letztlich ist „Responsible AI“ ein diffuser Begriff, der hohe Erwartungen weckt, jedoch kaum erfüllt.“

„Verantwortungsvolle KI“ führt auch zu Fehlinterpretationen, wie es in einer Fachdiskussion zwischen zwei KI-Experten an der Northeastern University angesprochen wurde:

„Der Begriff lässt immer noch die Interpretation zu, dass die KI selbst eine gewisse Verantwortung trägt, was wir sicher nicht meinen. Wir versuchen zu betonen, dass es bei verantwortungsvoller KI darum geht, Strukturen und Rollen für eine verantwortungsvolle Entwicklung von KI zu schaffen, und dass die Verantwortung immer bei diesen Strukturen und den Menschen liegen wird, die die Systeme entwickeln.“

Vertrauenswürdige Künstliche Intelligenz

Das Ziel von vertrauenswürdigen KI-Systemen (EN: Trustworthy AI), ist es, sie so zu entwickeln und einzusetzen, dass sie zuverlässig sind und so wie erwartet funktionieren. Die These dabei ist, dass Vertrauen durch die Erfüllung von Erwartungen entsteht. Laut dem Framework von Deloitte gehören dazu folgende Kriterien: robust gegenüber unvorhersehbaren Situationen, geschützt gegen Cyber-Risiken, transparent und nachvollziehbar (erklärbar) sowie fair und unvoreingenommen.

Auch Adesso hat ein Framework zum Thema „vertrauenswürdige KI“ erstellt, welches noch weitreichender ist. Dieses Framework bezieht auch externe Faktoren, wie z.B. gesetzliche Vorgaben, Zertifizierungen und Standards mit ein.

Im Prinzip zielen alle Vorschläge für eine vertrauenswürdige KI darauf ab, ein stabiles Vertrauensgerüst zu bilden, um eine Mensch-und-KI-Kollaboration erfolgreich und nachhaltig zu gestalten.

Doch auch hier gibt es noch keinen allgemein gültigen Konsens, sodass sich die Kritik von verantwortungsvoller KI hierauf übertragen lässt. So gestaltet sich die Umsetzbarkeit von vertrauenswürdiger KI für KI-Entwicklungsunternehmen nicht leicht.
 
BERECHNEN SIE JETZT DEN ROI VON QYMATIX PREDICTIVE SALES SOFTWARE
 

Erklärbare, verantwortungsvolle und vertrauenswürdige künstliche Intelligenz – Was steckt dahinter? – Fazit

Erklärbare KI ist für KI-Entwickler technisch anspruchsvoll, doch die Vorteile überwiegen den Aufwand. Außerdem ist der Begriff im Gegensatz zu den anderen beiden, relativ klar und somit besser umzusetzen.

Bei der verantwortungsvollen und vertrauenswürdigen KI ist das nicht so einfach.

Hier fehlt noch eine einheitliche Definition. Auch Abgrenzung zwischen den Begriffen ist schwammig. Es gibt viele Artikel, in denen unter „vertrauenswürdiger KI“ genau das beschrieben wurde, was andere Artikel unter „verantwortungsvoller KI“ verstehen.

Trotzdem denken wir, dass die Intention, die hinter den Begriffen steckt, ein wichtiger Teil zur sicheren Nutzung und Entwicklung von KI-Systemen ist. Für KI-Unternehmen verständliche und umsetzbare Vorgaben zu einer verantwortungsvollen und vertrauenswürdigen KI trägt mit Sicherheit zur weiteren und sichereren Nutzung von KI-Systemen bei.

Eine Befürchtung vieler KI-Forschungs- und Entwicklungsunternehmen ist es, dass zu starke regulatorische Gesetze, wichtige KI-Innovationen verhindern.

Wir sind gespannt welche Wege die KI-Welt einschlagen wird. Noch ist Vieles offen.

 

ICH MÖCHTE PREDICTIVE ANALYTICS FÜR DEN B2B-VERTRIEB
 

Literaturnachweis:

Tagesschau 14.06.2023: EU-Parlament einigt sich auf Position zum KI-Gesetz

Deloitte: Explainable AI (XAI): Trust through Transparency

Deloitte (2021): Trustworthy AI: Künstliche Intelligenz benötigt die passende Kontrolle

IBM: What is explainable AI?

Gabler Wirtschaftslexikon: Responsible AI

Christoph Kurth (2021): Die vier Grundpfeiler einer verantwortungsvollen KI. Hg.: Big Data Insider

Adesso (2022): Trustworthy AI – das ganzheitliche Gerüst und was davon zukünftig geprüft wird