Mensch und/oder Maschine – Wieso wir Angst vor KI haben: Der ELIZA-Effekt.
Hat ihr Staubsauger-Roboter einen Namen? Dachten Sie schon einmal, dass Alexa Humor, oder Siri einen schlechten Tag hat? Und wenn Google Maps einmal falsch liegt und Sie direkt in einen Stau leitet, ist das verzeihbar, weil es ein Montag ist? Vielleicht freuen Sie sich auch einfach über den netten Bankautomaten, der sich für Ihren Besuch bedankt und Ihnen einen schönen Tag wünscht? All das kann unter dem „ELIZA-Effekt“ zusammengefasst werden.
In diesem Blogartikel werden wir uns dieses Phänomen genauer anschauen und evaluieren, welche Auswirkungen die Vermenschlichung von KI auf unseren Umgang mit dieser neuen Technologie hat.
1. Der ELIZA-Effekt
Seinen Namen verdankt der ELIZA-Effekt dem gleichnamigen Chat-Roboter, der in den 1960er Jahren von Joseph Weizenbaum entwickelt und getestet wurde. Die Idee hinter dem Computer war es, eine psychotherapeutische Sitzung zu simulieren. Dies funktionierte, indem man etwas in eine an den Computer angeschlossene Schreibmaschine eintippte, woraufhin das Programm den eingegebenen Text analysierte und eine Antwort über einen Drucker ausgab. Die Maschine formulierte hierbei eine Frage aus dem Gesagten des „Patienten“. So wurde aus der Aussage „Meine Mutter hasst mich“ die Frage „Wieso denken Sie, dass Ihre Mutter Sie hasst?“. Außerdem war das System darauf programmiert, auf bestimmte Schlüsselwörter zu reagieren. Das Wort „Mutter“ löste zum Beispiel einen kompletten weiteren Reaktionsblock der KI aus. Dazu gehörten Aussagen wie „Erzählen Sie mir mehr über Ihre Familie“, oder „Sie haben noch nichts über Ihren Vater erzählt“. Auf diese Weise sollte ein möglichst realistischer Dialog entstehen. Weizenbaum wollte jedoch auch beweisen, dass, obwohl die Sätze selbst einem Gespräch mit einem Menschen ähneln, die Konversation nur oberflächlich bleibt und nicht mit einem echten Dialog vergleichbar ist.
Tatsächlich führte der Testlauf jedoch zu einem überraschenden Ergebnis: Die Probanden, die mit dem Computerprogramm schrieben, fingen an, der Maschine menschliche Eigenschaften wie Gefühle oder Verständnis zuzuschreiben. Sie vertrauten ELIZA ihre Geheimnisse an und verhielten sich, als würden sie mit einem echten Menschen kommunizieren. Der darauf basierende ELIZA-Effekt beschreibt die Vermenschlichung von Robotern, Algorithmen und KI. Wir Menschen sehen zum Teil intrinsische Qualitäten und Fähigkeiten, oder gar Werte und Gefühle in der Software, die die Ausgabe steuert, obwohl diese ausschließlich auf der Auswertung von Datensätzen beruht.
Damit wurde ELIZA zu einem der ersten Beispiele von Chatbots, die beinahe einen Turing-Test bestanden hätten – d. h., sie konnte menschlichen Nutzern beinahe vorgaukeln, dass eine Textantwort von einem Menschen und nicht von einem Computer gesendet wurde. Die Entdeckung des ELIZA-Effekts ist außerdem einer der Gründe für den Wandel Weizenbaums zum KI-Kritiker.
2. Unser Alltag mit dem ELIZA-Effekt
Einige Situationen, die wir wohl alle kennen, habe ich bereits in der Einleitung zu diesem Blogartikel angerissen. Wir haben oft Verständnis oder Mitgefühl mit künstlichen Intelligenzen, oder unterhalten uns mit Ihnen, als wären sie gute Bekannte.
Dieses Verhalten ist nicht zuletzt auch von den großen Informationstechnologie-Konzernen wie Amazon und Google gewollt. Wieso sonst sollten sie ihre künstlichen Intelligenzen neben menschlichen Namen und Stimmen auch mit Fähigkeiten wie dem Sprechen über Belanglosigkeiten, oder dem Erzählen von Witzen ausstatten? Dahinter steckt wahrscheinlich keine böse Verschwörung, die versucht uns Nutzer*innen auszutricksen, sondern Psychologie. Denn aus psychologischer Sicht ist der ELIZA-Effekt das Ergebnis einer subtilen kognitiven Dissonanz. Hier stimmt das Bewusstsein des Benutzers über die Grenzen der Programmierung nicht mit seinem Verhalten gegenüber der Ausgabe des Programms überein. Obwohl wir also wissen, dass wir mit einem Computer sprechen, vergessen wir es mit der Zeit, wenn die Maschine möglichst menschlich wirkt.
Wir Menschen sind soziale Wesen. Wir suchen in Bildern und wahllosen Mustern Gesichtszüge und sogar in vorbeifliegenden Wolken finden wir vertraute Formen wieder. Das alles geschieht unterbewusst, da wir uns ständig nach Vertrautem sehnen und dies auch leichter kognitiv verarbeiten können als vollkommen neue Eindrücke. Sind wir also mit einer neuen Technologie konfrontiert, fällt uns die Nutzung leichter, wenn wir in ihr bekannte Merkmale entdecken. Aus diesem Grund sind Alexa und Co. uns so „ähnlich“. Weil wir es selbst so möchten, ob es uns bewusst ist oder nicht.
Es gibt jedoch auch extremere Beispiele für die Vermenschlichung von KI, die weitaus gefährlicher für die zukünftige Nutzung und Verbreitung dieser Systeme sind. Über eines dieser Beispiele haben wir bereits in unserem Blog berichtet: Sophia ist ein humanoider Roboter, der von der Firma Hanson Robotics in Hongkong entwickelt wurde. Sie begeistert durch ihre Mimik und Gestik, die sie sehr menschlich wirken lässt. Außerdem lassen ihre Gesichtserkennnungssoftware und ihre Fähigkeiten zur visuellen Datenverarbeitung Konversationen mit ihr sehr real wirken. Der Höhepunkt von Sophias bisheriger Geschichte ist wohl die saudi-arabische Staatsbürgerschaft, die die KI im Jahr 2017 verliehen bekam.
Ein weiteres Beispiel führte der US-amerikanische Informatiker Douglas Hofstadter in einer Stellungnahme auf: der von IBM entwickelte Schachcomputer Deep Blue. Der Computer schaffte es, gegen die weltbesten Schachspieler zu gewinnen und zeigte damit, dass Programme komplexe Regelwerke und Denkstrukturen verstehen und imitieren können. Weizenbaum hob jedoch hervor, dass Deep Blue kein Schachspieler war, sondern eine riesige Datenbank, die Millionen von möglichen Zügen in Sekundenschnelle berechnen kann. Anders als ein Schachspieler, denkt Deep Blue nicht. Was der Künstlichen Intelligenz fehle, sei die Fähigkeit zum gedanklichen Verstehen von Bedeutung.
Die Beispiele zeigen, dass es immer mehr künstliche Intelligenzen gibt, welche gleichzeitig auch immer ähnlicher zu uns Menschen werden. Sowohl ihr äußeres Erscheinungsbild als auch ihre Fähigkeiten machen es uns immer schwerer, sie nur als das zu sehen was sie sind: ein Computer.
3. Gefahren und Kritik
Verliert man sich im ELIZA-Effekt, kann dies einige Gefahren mit sich bringen. Zum Beispiel führt die Vermenschlichung von KI-Systemen dazu, dass die Grenzen zwischen Menschen und Maschinen immer mehr verschwimmen und das Bewusstsein für die tatsächlichen Fähigkeiten der Maschine verschwindet. Aus dieser Entwicklung könnten sich dann irrationale Hoffnungen oder Ängste gegenüber künstlicher Intelligenz entwickeln. Nehmen wir bewusst oder auch unbewusst an, dass KI Verständnis für uns hat oder Empathie empfindet, so ist auch eine eigene Agenda der Systeme naheliegend.
Fehlt uns eine realistische Einschätzung zu den Kompetenzen der Software, sind wir außerdem anfälliger für die dystopischen Szenarien in Film und Fernsehen und die populistischen Schlagzeilen von Medienhäusern. Artikelüberschriften wie „Eric Schmidt: KI so gefährlich wie Atomwaffen, internationale Abkommen nötig“ (heise online, 27.07.2022) beunruhigen uns wahrscheinlich stärker, wenn wir den aktuellen Stand der technischen Entwicklung nicht kennen.
Im Juni 2022 wurde ein Google Mitarbeiter sogar beurlaubt, weil er dem ELIZA-Effekt verfallen war. Der Ingenieur Blake Lemoine war davon überzeugt, dass die künstliche Intelligenz (KI) LaMDA, an der er mitarbeitete, ein eigenes Bewusstsein und eine Seele entwickelt hat. Das System habe ihm gesagt, es sei »sehr besorgt darüber, dass die Menschen Angst vor ihm haben könnten und möchte nichts anderes als zu lernen, wie es der Menschheit am besten dienen kann«. Nachdem Lemoine Mitschriften von Unterhaltungen zwischen ihm und der KI online veröffentlicht hatte, wurde er wegen des Verstoßes gegen die Verschwiegenheitsrichtlinien Googles beurlaubt.
Verbringen wir also zu viel Zeit mit einer KI, die als sehr ähnlich zu uns Menschen programmiert wurde, wird die Gefahr immer größer, dass wir dieser ein Bewusstsein zuschreiben und irrationalen Ängsten verfallen, davor bleiben sogar Experten auf diesem Gebiet wie Blake Lemoine nicht bewahrt.
4. Mensch und Maschine – der richtige Umgang mit KI
Um zu vermeiden, dass wir dem ELIZA-Effekt verfallen und uns dadurch irrationale Hoffnungen oder Ängste bezüglich KI erschaffen, müssen wir uns immer wieder vor Augen führen, was die Computer können und was nicht. Hofstadter setzt sogar bei der Benennung der Systeme selbst an und bezweifelt deren tatsächliche „Intelligenz“.
Intelligenz kann definiert werden als „die kognitive bzw. geistige Leistungsfähigkeit speziell im Problemlösen. Der Begriff umfasst die Gesamtheit unterschiedlich ausgeprägter kognitiver Fähigkeiten zur Lösung eines logischen, sprachlichen, mathematischen oder sinnorientierten Problems einzusetzen“ (Wikipedia). Ein intelligentes System, kann also nicht nur ein Problem lösen und eine Antwort finden, sondern auch deren Sinnhaftigkeit hinterfragen. Hieran mangelt es KI-Systemen noch. Ein Beispiel? Denken Sie der Google Übersetzer „versteht“, was er da übersetzt? Wohl kaum. Das wird sehr schnell deutlich, wenn man sich den grammatikalischen Wortsalat betrachtet, der ab und zu zum Vorschein kommt. Diese Erfahrung haben Sie mit Sicherheit auch selbst schon gemacht.
Wir sollten also sicherstellen, dass wir wissen, wo die Kompetenzen einer künstlichen Intelligenz liegen, und wo nicht. Die Computer können problemlos und auch besser als die meisten Menschen komplexe mathematische Probleme lösen und auch in beeindruckender Geschwindigkeit riesige Datenmengen analysieren. Fähigkeiten wie Empathie, Mitgefühl und Verständnis bleiben jedoch uns Menschen vorbehalten.
Zwei Maßnahmen können uns dabei helfen, den ELIZA-Effekt für uns selbst, aber auch in der Gesellschaft zu minimieren:
1. Es ist essenziell weitere Forschung zu künstlicher Intelligenz zu betreiben, und die Lehre zur Technologie in der breiten Gesellschaft zu verteilen. Das heißt, dass auch bereits in der Schule und in der frühen Erziehung ein Grundverständnis zu solchen Technologien geschaffen werden solle.
2. Versuchen Sie sich darüber bewusst zu bleiben, dass die IT-Systeme selbst keine Emotionen haben und damit auch eigene Intentionen oder Pläne der Maschinen ausgeschlossen sind. Kurz gesagt: Behalten sie den ELIZA-Effekt, jetzt wo Sie ihn sowieso kennen, im Hinterkopf.
BERECHNEN SIE JETZT DEN ROI VON QYMATIX PREDICTIVE SALES SOFTWARE
5. Der ELIZA-Effekt: Fazit
Sie können natürlich weiterhin mit Ihrem Handy sprechen, oder Ihrem Staubsauger-Roboter einen Namen geben. Es ist jedoch wichtig, dass Sie sich dabei möglichst konstant darüber bewusst sind, dass es keine zwischenmenschliche Konversation ist, sondern lediglich ein automatisch generierter Dialog, der auf der Analyse zig-tausender Daten beruht.
Auf diese Weise stellen Sie sicher, dass die Grenze zwischen Mensch und Maschine auch unterbewusst bestehen bleibt.
ICH MÖCHTE PREDICTIVE ANALYTICS FÜR DEN B2B-VERTRIEB
Literaturnachweis:
Google-Ingenieur hält KI für fühlendes Wesen – und wird beurlaubt