Warum Künstliche Intelligenz eine ethische Basis braucht | Teil 2
Künstliche Intelligenz und Ethik Teil 2 von 2: ein Plädoyer für ethische Richtlinien im Bereich KI von unserem Qymatix-Gastautor David Wolf.
Wenn Sie Teil 1 noch nicht gelesen haben, klicken Sie hier.
Ethik bei Conversational AI: Was soll ein Bot, und was soll er not?
Mit Künstlicher Intelligenz ist es wie mit anderen Dingen im Leben auch: Nur, weil man etwas kann, heißt es noch lange nicht, dass man es auch tun sollte. Ein Beispiel dafür ist Conversational AI und im Besonderen Chatbots. Chatbots können im Marketing, Service und Support hilfreich sein. Die digitalen Helferlein automatisieren beispielsweise den Interaktionsprozess einer Website mit Besuchern, um ein optimales Benutzererlebnis zu schaffen und Kundenanfragen schnell und unkompliziert zu bearbeiten. Selbst dann, wenn keine MitarbeiterInnen aus Fleisch und Blut mehr vor dem Rechner sitzen. Aber: Wer achtet bei der Entwicklung von Chatbots eigentlich auf ethische Aspekte?
Es sind Menschen wie Maggie Jabczynski, Conversational Designer und laut LinkedIn für Vodafone tätig, die sich für eine Ethik beim Entwickeln von Chatbots und Conversational AI stark machen. Jabczynski hinterfragt die einseitige Fokussierung von Unternehmen auf die Customer Centricity kritisch. Stattdessen wirft sie eine „Humanity Centricity” in den argumentativen Ring und fragt: „Was soll ein Bot, und was soll er not?” Jüngst hatte ich das Vergnügen, Maggie Jabczynski in meiner Eigenschaft als Content Manager für die Plattform „Shift/CX“ in einem Interview zu diesem Thema zu befragen. Auf der Plattform dreht sich alles rund ums Customer Experience Management.
Jabczynski ist der Ansicht, Unternehmen sollten Chatbots nicht für rhetorische Kniffe bei automatisierten Dialogsituationen einsetzen. Konkret bedeutet das: Ein Chatbot sollte nie so programmiert werden, dass er diejenigen, die ihn nutzen, zu etwas bringt oder verleitet. Kritisch ist das insbesondere dort, wo Menschen auf Hilfe oder eine Lösung ihres Problems dringend angewiesen sind, zum Beispiel im Gesundheitswesen. Manipulative Bots sind also schlecht. Vor allem auch fürs Image der Unternehmen, die sie einsetzen. Maggie Jabczynski geht es deshalb darum, Chatbots nicht nur aus rein wirtschaftlichen Erwägungen zu nutzen, sondern wirtschaftliches Tun in größeren Kontexten zu bewerten. Und das fängt eben schon im Designprozess an, der auch ethische Fragen und Aspekte berücksichtigt.
KI ist ein Hilfsmittel zur Lösung von Problemen und komplexen Aufgaben
Künstliche Intelligenz ist mittlerweile in vielen Bereichen von Unternehmen angekommen, ihr Einsatz zum Wettbewerbsfaktor geworden. KI kann Prozesse verschlanken, den Kundenservice verbessern, die Lieferkette optimieren und Kosten sparen. Wer da hinterherhinkt, muss der schnelleren, effizienter wirtschaftenden Konkurrenz das Feld überlassen. Auch im Privatleben ist KI im Alltag permanent präsent. Sie macht das Leben in vielerlei Hinsicht einfacher, indem sie uns zum Beispiel unliebsame Aufgaben abnimmt. So ist es nicht nur legitim, sondern darüber hinaus auch durchaus effektiv und entlastend, dass sich jemand mit einem schwach ausgeprägten Orientierungssinn auf Google Maps verlässt, um sicher am Ziel anzukommen. Wer bequem ist, und sich deshalb einen smarten Kühlschrank kauft, der rechtzeitig vor einem Joghurt-Notstand warnt und die – anhand der durch KI ermittelten Kaufgewohnheiten – notwendige Menge gleich mitbestellt, umgeht damit den als lästig empfundenen Gang zum Supermarkt.
Künstliche Intelligenz ist also ein Hilfsmittel, um bestimmte Ziele zu erreichen. Um Probleme zu lösen und auch komplexe Aufgaben, die das menschliche Gehirn niemals bewältigen könnte. Um Prognosen und Wahrscheinlichkeiten zu ermitteln, die wiederum als Grundlage für (bessere) menschliche Entscheidungen dienen. Dienen ist ein passendes Stichwort, weshalb ich an dieser Stelle für drei, mir unabdingbar erscheinende, ethische Prämissen plädiere, die die Entwicklung und den Einsatz von KI in ethischer Weise bestimmen sollten:
● KI ist und bleibt beherrschbar.
● KI fügt dem Menschen keinen Schaden zu.
● KI dient dem Menschen.
Ich möchte die einzelnen Punkte nicht weiter kommentieren, sondern Sie als LeserInnen stattdessen bitten, einmal wahrzunehmen, was Ihnen beim Lesen dieser Prämissen durch den Kopf geht. Lassen Sie sich ausreichend Zeit dafür und versuchen Sie nicht, sofort Position zu beziehen! Manchmal kann es hilfreich sein, einen Schritt zurückzutreten und die Dinge erst einmal auf sich wirken zu lassen.
Man muss nicht alles tun, nur weil man es kann
Wenn ich ins Silicon Valley schaue, so scheint es mir, dass die genannten Prämissen für die dort beheimateten Technologie-Giganten, wie Facebook und Google, von eher marginalem Interesse sind. Ich bezweifle, dass ethische Fragen über das gesellschaftliche Zusammenleben, über das, was für eine Gesellschaft erstrebenswert ist (in welcher Gesellschaft wollen wir leben?), für die Unternehmensführer irgendeine Rolle spielen.
So setzt Facebook verschiedene Formen von Künstlicher Intelligenz ein, wie Gesichtserkennungssoftware, die in der jüngeren Vergangenheit schon des Öfteren von Bürgerrechtlern aufgrund Problemen bei der Genauigkeit kritisiert wurde. Es kam vor, dass ein Algorithmus schwarze Menschen mit Affen verwechselte, womit wir wieder beim oben erwähnten Phänomen wären, dass in Algorithmen auch menschliche Vorurteile einfließen. Eine ehemalige Mitarbeiterin von Facebook, die diese KI-Panne aufgedeckt hatte, sagte gegenüber der New York Times, dass Facebook die Behebung der Rassismus-Probleme nicht wichtig genug sei. Der Konzern begnüge sich mit Entschuldigungen, ohne am eigentlichen Problem etwas ändern zu wollen.
Ist das generelle Hinnehmen solcher mehr als peinlicher Vorfälle ethisch vertretbar? Macht sich Facebook damit nicht zum Katalysator einer gesellschaftlichen Spaltung in Schwarze und Weiße, mit denen die USA sowieso schon mehr als genug konfrontiert sind? Der Konzern hätte die Wahl, auf Gesichtserkennung komplett zu verzichten, wenn sie nicht so funktioniert, dass sie keinen gesellschaftlichen Sprengstoff provoziert. Dem Tech-Giganten ist jedoch offensichtlich eher daran gelegen, uns Menschen auf konsumgeile Objekte zu reduzieren, die freiwillig ihre Daten hinterlassen, um ihnen danach vorzugaukeln, dass ihnen das ungeahnte Freiheiten ermöglicht.
Mit Google ist das ähnlich. Nach außen gibt man sich als verantwortungsbewusstes Unternehmen, doch innen scheint es mit der Ethik nicht so weit her. 2020 wurde Timnit Gebru, damals Vize-Chefin der Google-Arbeitsgruppe über Ethik in der Künstlichen Intelligenz (KI), von ihrem Arbeitgeber vor die Türe gesetzt. Den Grund dafür nennt Anna Jobin, Wissenschaftlerin am Humboldt-Institut für Internet und Gesellschaft in Berlin und Expertin für Ethik neuer Technologien, im Schweizer Online-Nachrichtenmagazin swissinfo: „Timnit Gebru wurde von Google eingestellt, um sich mit KI-Ethik zu beschäftigen, und wurde gefeuert, weil sie sich mit KI-Ethik beschäftigte.” Die KI-Forscherin hatte in einem gemeinsam mit anderen WissenschaftlerInnen verfassten Artikel vor den ethischen Gefahren in der KI-Textsoftware – die Grundlage von Googles Suchmaschine – gewarnt. Die Sprachmodelle würden riesige Textmengen im Internet analysieren, die zumeist aus der westlichen Welt stammen und so eine geografische Verzerrung bewirken. Das Risiko der Reproduktion einer rassistischen, sexistischen und beleidigenden Sprache sei die Folge. Google ging diese Warnung zu weit.
BERECHNEN SIE JETZT DEN ROI VON QYMATIX PREDICTIVE SALES SOFTWARE
Menschliches versus künstliches Gehirn
Vor diesem Hintergrund erscheint die vom Konzern kommunizierte „Ethische KI” wie eine leere Worthülse. Klingt gut, ist in Wahrheit aber so etwas wie ein ethisches Greenwashing. Man selbst hat im Grunde kein Interesse daran. Kein Interesse an einer objektiven, kritischen Auseinandersetzung mit Künstlicher Intelligenz, die die Möglichkeit beinhaltet, dass auch unschöne Ergebnisse zum Vorschein kommen. Leistet sich Google eine Ethik-Abteilung etwa nur deshalb, weil es in der Öffentlichkeit verantwortungsvoll aussieht, während es sich vorbehält, allzu kritische MitarbeiterInnen zu entlassen? Natürlich sind das letztlich unbeweisbare Spekulationen – auch wenn man nicht leugnen kann, dass solche Gedankengänge naheliegen.
Was hingegen bewiesen ist, ist Folgendes: Das menschliche Gehirn verfügt über 100 Milliarden Neuronen mit jeweils 1.000 neuronalen Verbindungen! Das künstliche, computergestützte Gehirn „Google Brain”, eine Forschungseinheit von Google, die die Funktionsweise eines normalen menschlichen Gehirns mithilfe von Deep-Learning-Systemen erfassen will, besteht aus einer Milliarde Synapsen, die von rund 1.000 CPU-Servern mit insgesamt 16.000 Kernen simuliert werden. An die Komplexität seines menschlichen Vorbilds kommt es trotzdem lange nicht heran: Die Künstliche Intelligenz bringt es gerade einmal auf die Zahl der Synapsen im Gehirn einer Honigbiene.
Hoffen wir, dass das so bleibt.