KI und Ethik: Warum Künstliche Intelligenz eine ethische Basis braucht | Teil 1

KI und Ethik
 
Künstliche Intelligenz (KI) und Ethik – Teil 1 von 2: über ethische Richtlinien im Bereich der KI von unserem Qymatix-Gastautor David Wolf.

Ob in der Produktion, im Marketing, Vertrieb oder der Logistik – künstliche Intelligenz optimiert Prozesse und übernimmt Routineaufgaben. Menschen erhoffen sich von KI auch bessere, das heißt objektivere Entscheidungen.

Hier wird es knifflig. Wie können Maschinen objektiv „entscheiden“, wenn diejenigen, die dafür die Algorithmen entwickeln, es nicht können? Ein Plädoyer für die ethische Bewertung von KI anhand ihrer jeweiligen Auswirkungen auf die Gesellschaft.

Es ist das Jahr 2029. Deutschland wird von einer rechtspopulistischen Regierung geführt. Der mit einem Arbeitsverbot belegte Journalist Johann Hellström zieht sich mit seiner Frau in sein luxuriöses Wochenendhaus auf einer Insel zurück. „Das Haus“, so der Titel des deutschen Spielfilms aus dem Jahr 2021, ist ein ganz Besonderes. Es ist nicht nur luxuriös, sondern auch durch und durch ein Smart Home. Voll digitalisiert. Künstliche Intelligenz führt die Regie. Sie kümmert sich automatisch um den Lebensmittelnachschub, regelt die Temperatur des Waschwassers und riegelt bei Bedarf das komplette Gebäude ab. Die KI ist vollends auf Johann Hellström und seine Bedürfnisse abgestimmt, sodass seine Frau nicht nur einmal ihre liebe Mühe mit der Technologie hat. Ihre Befehle werden von der KI einfach ignoriert.

Als ich mir den Film mit Tobias Moretti in der Hauptrolle ansah, war ich fasziniert und erschüttert zugleich. Fasziniert von den vielen Dingen, die Künstliche Intelligenz uns Menschen – zumindest theoretisch im Spielfilm – abnehmen kann, wenn man sie entsprechend programmiert. Erschüttert ob des tragischen Szenarios am Ende, als die KI in den Alarmmodus schaltet und das System des Smart Homes vollständig herunterfährt. Weil es sein Hausherr nicht mehr rechtzeitig nach draußen schafft, bleibt er eingesperrt in seinen eigenen vier Wänden. Ich konnte nicht unterscheiden, ob der Alarmmodus einem programmierten Szenario entsprach, oder ob die Künstliche Intelligenz eigenmächtig „entschieden“ hatte, das Haus hermetisch abzuriegeln. Irgendwie gruselig.

Aber ist das tatsächlich alles nur Fiktion? Immerhin spielt der Film zur Zeit seiner Premiere nur acht Jahre in der Zukunft.

Anlässe für eine ethische Künstliche Intelligenz

Smart Homes und Smart Living sind längst keine Zukunftsmusik mehr. Es gibt bereits intelligente Kühlschränke, die über eine integrierte Anbindung ans Mobilfunknetz oder Internet verfügen und in der Lage sind, zur Neige gehende Lebensmittel automatisch nachzubestellen.

Doch damit sind die Möglichkeiten von KI noch lange nicht ausgeschöpft.

„Schon bald könnte jeder von uns in einem Haus oder einer Wohnung mit KI-basiertem, elektronischem Pförtner leben. Dieser Pförtner lässt Handwerks-, Liefer- und Postdienste ein, wenn wir nicht zu Hause sind. Er achtet darauf, dass nur die Räume betreten werden, die wir etwa für Handwerker freigegeben haben. Auch Anweisungen gibt der Pförtner weiter und nimmt umgekehrt Nachrichten für uns entgegen.”

Diese Einschätzung stammt vom Bundesministerium für Wirtschaft und Klimaschutz (BMWK) und bezieht sich auf das im Rahmen eines KI-Innovationswettbewerbs geförderte Projekt „ForeSight”.

Eine Plattform zur Entwicklung und zum Betrieb voll vernetzter Gebäude. Der eigenen Aussage zufolge, stellt ForeSight bei der Entwicklung neuer Methoden den Menschen als selbstbestimmtes Individuum in den Fokus und sieht in Künstlicher Intelligenz mehr als nur Daten und Technologien. Neben typischen Sicherheitsaspekten, also Fragen zum Schutz des Missbrauchs eines durch KI gesteuerten Systems, geht es vor allem auch um ethische Fragen.

Zum Beispiel, wie gewährleistet werden kann, dass die KI nicht „eigensinnig” ohne Rücksicht auf den Menschen entscheidet, wer ins Gebäude darf und wer nicht. Ein denkbares – und unschönes – Szenario dabei könnte sein, dass die KI beispielsweise anhand der Hautfarbe eines Menschen entscheidet, ob sie ihm Zutritt gewährt.

Dass das keine theoretische Spinnerei ist, hatte ZEIT Online bereits 2018 in einem ausführlichen Artikel thematisiert und berichtet, dass eine Google-Software das Foto einer Afroamerikanerin mit „Gorilla” beschriftete. Oder: Immer dann, wenn jemand den Suchbegriff „professionelle Frisur” in die Suchmaschine eingab, tauchten in den ersten Ergebnissen der Bildersuche nur blonde Flechtfrisuren auf. Wie kann so etwas passieren?

Menschliche Entscheidungen sind nie wirklich objektiv

Dass sich KI wie in den erwähnten Beispielen quasi selbstständig macht und nur ganz bestimmte Ergebnisse liefert, hat seinen Ursprung in dem, was die Algorithmen trainiert: menschengemachte Daten. Wir wollen, dass Computer und Maschinen uns das Leben erleichtern. Was auch in vielerlei Hinsicht der Fall ist, etwa bei der Automatisierung unliebsamer Routinetätigkeiten. Andererseits erhoffen wir uns von Algorithmen auch bessere und vor allem objektivere Entscheidungen.

Doch darin liegt der Trugschluss. Wie sollen Maschinen objektive Entscheidungen treffen können, wenn sie mit Daten gefüttert und trainiert werden, in denen das menschliche Dilemma der Entscheidungsfindung steckt? Es lautet: Keine Entscheidung ist wirklich objektiv! In jede Entscheidung, die wir treffen, fließen nicht nur nüchterne Fakten ein, sondern auch Halbwissen, individuelle Wertvorstellungen, Vorlieben, Wahrnehmungsverzerrungen, erwartbare Vorteile und gelernte Vorurteile.

Werden wir uns dessen bewusst, kommen wir um dringende Fragen einer ethischen Bewertung von KI nicht herum. Ethik ist der Teilbereich der Philosophie, der sich mit den Voraussetzungen und der Bewertung menschlichen Handelns befasst. Ethik ist das methodische Nachdenken über die Moral. In ihrem Zentrum steht das moralische Handeln, insbesondere hinsichtlich seiner Begründbarkeit und Reflexion. Die Ethik der KI-basierten Systeme wiederum ist ein Teilbereich der angewandten Ethik und beschäftigt sich mit den Fragen, die durch die Entwicklung, Einführung und Nutzung von KI-basierten Systemen für das Handeln der Individuen in der Gesellschaft aufgeworfen werden. Da der Mensch selbst Schöpfer und damit Ausgangspunkt intelligenter Maschinen und Systeme ist, müssen wir also ganz am Anfang – bei uns selbst – beginnen und uns fragen: Was betrachten wir in einer Gesellschaft als gut oder richtig? Was wollen wir, und was wollen wir nicht? Letztlich: In welcher Gesellschaft wollen wir leben?

Unbestritten ist, dass Künstliche Intelligenz in vielen Bereichen unser Leben erleichtert und vereinfacht. So berücksichtigt beispielsweise das Navigationsprogramm Google Maps bei der Routenplanung Strecken, auf denen besonders häufig Vollbremsungen gemacht werden müssen. Die KI dahinter sortiert sie aus, wenn die Alternativroute nicht wesentlich länger dauert. Auch im Geschäftsleben kommt KI zum Einsatz, um etwa im Vertrieb Prozesse zu verschlanken, Abläufe zu optimieren und den MitarbeiterInnen unliebsame Routineaufgaben abzunehmen. Mit Hilfe von KI-Tools, wie Predictive Analytics, ist es außerdem möglich, große Datenmengen aus unterschiedlichen Quellen zu analysieren. Damit sparen sich die MitarbeiterInnen das Erstellen zeitaufwändiger Vorhersagen und Prognosen, die mit Hilfe von KI um einiges genauer ausfallen.

Die Wahrheit ist aber auch, dass KI-Systeme missbraucht werden können, um sogar den Alltag ganzer Gesellschaften zu beeinträchtigen. Ein trauriges Beispiel ist das Social-Credit-System der Volksrepublik China. Das online betriebene Rating- beziehungsweise Social-Scoring-System stellt einen Versuch der totalen Kontrolle der Bevölkerung durch die Vergabe von „Punkten“ dar. Grundlage ist das – aus Sicht der herrschenden Kommunistischen Partei – wünschenswerte soziale und politische Verhalten von Privatpersonen, Unternehmen und anderen Organisationen. Die Antwort auf die Frage, in welcher Gesellschaft wir leben wollen, wird hier auf zutiefst unmenschliche Weise unmissverständlich beantwortet.

Ethik-Richtlinien für vertrauenswürdige KI-Systeme

Europa hat sich bei der Frage, wie KI entwickelt und genutzt werden sollte, von einem völlig konträren – und eindeutig wünschenswerten – Menschenbild leiten lassen. 2018 wurde im Auftrag der EU-Kommission eine hochrangige Expertengruppe für Künstliche Intelligenz ins Leben gerufen, die eine einheitliche, ethische KI-Strategie beraten sollte. Nach monatelangen Diskussionen stand im Frühjahr 2019 das Ergebnis: Ein 40-seitiges Papier mit Ethik-Richtlinien für die Entwicklung und Nutzung vertrauenswürdiger KI-Systeme. Diese erheben den Anspruch, Entwickler und NutzerInnen von KI-Systemen dabei zu unterstützen, ethischen Grundprinzipien gerecht zu werden. Die Richtlinien stellen drei Grundanforderungen an eine vertrauenswürdige Künstliche Intelligenz:

1. KI sollte gesetzeskonform sein und allen jeweils zutreffenden Gesetzen und Regulierungen folgen.
2. KI sollte sich an ethischen Prinzipien und Werten ausrichten.
3. KI sollte in technischer und sozialer Hinsicht zuverlässig sein.

In den Richtlinien werden die vier Grundprinzipien der Europäischen Union zitiert und zur generellen Grundlage einer KI-Ethik erklärt: Respekt der menschlichen Selbstbestimmung, Schadensvorbeugung, Fairness und Erklärbarkeit. Was eine vertrauenswürdige KI ist, wird anhand von sieben Anforderungen konkretisiert:

● Vorrang menschlichen Handelns und menschlicher Aufsicht
● Technische Robustheit und Sicherheit
● Schutz der Privatsphäre und Datenqualitätsmanagement
● Transparenz und Erklärbarkeit
● Vielfalt, Nichtdiskriminierung und Fairness
● Gesellschaftliches und ökologisches Wohlergehen
● Rechenschaftspflicht

Auch wenn die Richtlinien nicht im Rang einer offiziellen Regelung oder gar eines Gesetzes stehen, so sind sie doch eine Richtschnur und ein wichtiger Rahmen für eine gesellschaftlich wünschenswerte Entwicklung und Nutzung von KI.

Bemerkenswert ist vor allem die Betonung menschlicher Autonomie. Sich selbst steuernde Systeme, die die Entscheidungsgewalt und Verantwortung des Menschen ersetzen, sind in diesem Sinne keine vertrauenswürdige KI. Der Mensch, nicht die Technik hat das Sagen. Und: Künstliche Intelligenz kann nie von sich aus ethisch sein. Daher kann es auch nie so etwas wie einen „ethischen Algorithmus” geben, der Ethisches und Unethisches errechnet.

Dass es die Europäische Union ernst meint mit der menschlichen Autonomie, zeigt das derzeit einzige Gesetz, das Künstliche Intelligenz explizit regelt – die Datenschutz-Grundverordnung (DSGVO). Sie bestimmt unter anderem, welche Pflichten bei der Datenverarbeitung zu beachten sind sowie welche Rechte betroffene Personen bei der Nutzung personenbezogener Daten haben. Die DSGVO kommt also dann zum Einsatz, wenn KI mit personenbezogenen Daten gefüttert wird, wenn sie diese verwendet oder wenn sie als Grundlage für Entscheidungen dienen.

Neben den Ethik-Richtlinien für die Entwicklung und Nutzung vertrauenswürdiger KI-Systeme sowie der DSGVO sind in den letzten Jahren mehrere nationale und internationale Initiativen entstanden, die nicht von Gesetzgebern initiiert wurden. Auch zahlreiche private Akteure haben Maßnahmen der Selbstregulierung ergriffen. Die sogenannten „Algo.Rules“ der Bertelsmann Stiftung dienen als Werkzeugkoffer für EntwicklerInnen, ProgrammiererInnen und DesignerInnen von automatisierten Entscheidungsregeln. Entwickelt wurde der Praxisleitfaden gemeinsam mit dem Think-Tank „iRights.Lab“ und enthält neun Regeln für die Gestaltung algorithmischer Systeme.

„Ethik bei Conversational AI: Was soll ein Bot, und was soll er not?“

Mit diesem Thema geht es im zweiten Teil unserer KI und Ethik Reihe weiter.

 

ICH MÖCHTE PREDICTIVE ANALYTICS FÜR DEN B2B-VERTRIEB