Der ELIZA-Effekt: Warum wir ChatGPT und KI menschliche Eigenschaften zuschreiben

Wohin dürfen wir das PDF senden?

Der ELIZA-Effekt erklärt, warum Menschen ChatGPT und andere KI vermenschlichen. Erfahren Sie, wie KI-„Therapie“, emotionale Bindung und falsche Erwartungen entstehen und wie man KI realistisch einordnet.

Hat ihr Staubsauger-Roboter einen Namen? Dachten Sie schon einmal, dass Alexa Humor, oder Siri einen schlechten Tag hat? Und wenn Google Maps einmal falsch liegt und Sie direkt in einen Stau leitet, ist das verzeihbar, weil es ein Montag ist? Vielleicht freuen Sie sich auch einfach über den netten Bankautomaten, der sich für Ihren Besuch bedankt und Ihnen einen schönen Tag wünscht? All das kann unter dem „ELIZA-Effekt“ zusammengefasst werden.

In diesem Blogartikel werden wir uns dieses Phänomen genauer anschauen und evaluieren, welche Auswirkungen die Vermenschlichung von KI auf unseren Umgang mit dieser neuen Technologie hat.

1. Der ELIZA-Effekt

Seinen Namen verdankt der ELIZA-Effekt dem gleichnamigen Chat-Roboter, der in den 1960er Jahren von Joseph Weizenbaum entwickelt und getestet wurde. Die Idee hinter dem Computer war es, eine psychotherapeutische Sitzung zu simulieren. Dies funktionierte, indem man etwas in eine an den Computer angeschlossene Schreibmaschine eintippte, woraufhin das Programm den eingegebenen Text analysierte und eine Antwort über einen Drucker ausgab. Die Maschine formulierte hierbei eine Frage aus dem Gesagten des „Patienten“. So wurde aus der Aussage „Meine Mutter hasst mich“ die Frage „Wieso denken Sie, dass Ihre Mutter Sie hasst?“. Außerdem war das System darauf programmiert, auf bestimmte Schlüsselwörter zu reagieren. Das Wort „Mutter“ löste zum Beispiel einen kompletten weiteren Reaktionsblock der KI aus. Dazu gehörten Aussagen wie „Erzählen Sie mir mehr über Ihre Familie“, oder „Sie haben noch nichts über Ihren Vater erzählt“. Auf diese Weise sollte ein möglichst realistischer Dialog entstehen. Weizenbaum wollte jedoch auch beweisen, dass, obwohl die Sätze selbst einem Gespräch mit einem Menschen ähneln, die Konversation nur oberflächlich bleibt und nicht mit einem echten Dialog vergleichbar ist.

Tatsächlich führte der Testlauf jedoch zu einem überraschenden Ergebnis: Die Probanden, die mit dem Computerprogramm schrieben, fingen an, der Maschine menschliche Eigenschaften wie Gefühle oder Verständnis zuzuschreiben. Sie vertrauten ELIZA ihre Geheimnisse an und verhielten sich, als würden sie mit einem echten Menschen kommunizieren. Der darauf basierende ELIZA-Effekt beschreibt die Vermenschlichung von Robotern, Algorithmen und KI. Wir Menschen sehen zum Teil intrinsische Qualitäten und Fähigkeiten, oder gar Werte und Gefühle in der Software, die die Ausgabe steuert, obwohl diese ausschließlich auf der Auswertung von Datensätzen beruht.

Damit wurde ELIZA zu einem der ersten Beispiele von Chatbots, die beinahe einen Turing-Test bestanden hätten – d. h., sie konnte menschlichen Nutzern beinahe „vorgaukeln“, dass eine Textantwort von einem Menschen und nicht von einem Computer gesendet wurde. Die Entdeckung des ELIZA-Effekts ist außerdem einer der Gründe für den Wandel Weizenbaums zum KI-Kritiker.

2. Unser Alltag mit dem ELIZA-Effekt

Viele Situationen kennen wir aus dem Alltag. Wir sprechen mit Sprachassistenten, bedanken uns bei Chatbots oder sind frustriert über „unkooperative“ Software.

Dieses Verhalten ist teilweise auch gewollt. Unternehmen geben ihren Systemen Namen, Stimmen und Persönlichkeit, um die Interaktion natürlicher zu gestalten. Psychologisch betrachtet entsteht hier eine kognitive Dissonanz: Wir wissen, dass wir mit einem Computer sprechen, verhalten uns aber zunehmend so, als wäre es ein Mensch. Menschen sind soziale Wesen. Wir erkennen Gesichter in Wolken, Emotionen in Stimmen und Absichten in Bewegungen. Diese Tendenz übertragen wir auch auf Technologie. Je menschlicher eine KI wirkt, desto leichter fällt uns die Interaktion.

3. Der ELIZA-Effekt im Zeitalter von ChatGPT und KI-„Therapie“

Seitdem KI-Systeme wie ChatGPT der breiten Masse zugänglich sind, hat sich der ELIZA-Effekt stark verstärkt. Moderne generative KI-Systeme können lange, kohärente Gespräche führen und empathisch formulierte Antworten geben. Dadurch wird es noch einfacher, ihnen menschliche Eigenschaften zuzuschreiben. Besonders deutlich zeigt sich das im Bereich „Therapie mit KI“. Immer mehr Menschen nutzen Chatbots für emotionale Unterstützung oder als Ersatz für Gespräche mit anderen Menschen. Studien zeigen, dass Nutzer generative KI zunehmend für emotionalen Support einsetzen und dabei vertrauensähnliche Beziehungen entwickeln.

Aktuelle Forschung spricht sogar von „AI-Therapy“: Menschen wenden sich an Chatbots, weil diese jederzeit verfügbar sind, geduldig reagieren und empathische Antworten simulieren können. Gleichzeitig fehlt ihnen echte Empathie, Verantwortlichkeit und die Fähigkeit, in Krisensituationen angemessen zu handeln.

Eine Studie aus dem Jahr 2025 zeigte zudem, dass KI-Antworten in Paartherapie-Szenarien von Testpersonen teilweise nicht mehr von echten Therapeutinnen und Therapeuten unterschieden werden konnten und teilweise sogar besser bewertet wurden. Genau hier wird der ELIZA-Effekt besonders sichtbar: Die KI wirkt empathisch, obwohl sie keine Emotionen besitzt.

Forschende warnen deshalb vor möglichen Risiken: emotionale Abhängigkeit, übermäßiges Vertrauen in KI-Ratschläge, falsche Einschätzung der Fähigkeiten und fehlende Unterstützung in Krisensituationen. Gleichzeitig zeigen Studien, dass Nutzer KI besonders dann vermenschlichen, wenn sie häufiger mit ihr interagieren. Das ist demnach ein sich selbst verstärkender Effekt.

4. Gefahren und Kritik

Verliert man sich im ELIZA-Effekt, kann dies einige Gefahren mit sich bringen. Zum Beispiel führt die Vermenschlichung von KI-Systemen dazu, dass die Grenzen zwischen Menschen und Maschinen immer mehr verschwimmen und das Bewusstsein für die tatsächlichen Fähigkeiten der Maschine verschwindet. Aus dieser Entwicklung könnten sich dann irrationale Hoffnungen oder Ängste gegenüber künstlicher Intelligenz entwickeln. Nehmen wir bewusst oder auch unbewusst an, dass KI Verständnis für uns hat oder Empathie empfindet, so ist auch eine eigene Agenda der Systeme naheliegend.

Ein bekanntes Beispiel ist der Google-Ingenieur Blake Lemoine, der 2022 überzeugt war, dass die KI LaMDA ein Bewusstsein entwickelt habe. Der Fall zeigt, dass selbst Experten dem ELIZA-Effekt unterliegen können.

5. Mensch und Maschine – der richtige Umgang mit KI

Um zu vermeiden, dass wir dem ELIZA-Effekt verfallen und uns dadurch irrationale Hoffnungen oder Ängste bezüglich KI erschaffen, müssen wir uns immer wieder vor Augen führen, was die Computer und die KI können und was nicht.

Generative KI-Systeme analysieren Muster, erkennen Zusammenhänge, generieren Texte, Bilder und Videos und simulieren Empathie. Sie haben keine Gefühle, kein Bewusstsein, keine Intention und kein Verständnis im menschlichen Sinne. Gerade moderne KI wirkt überzeugend menschlich. Das bedeutet jedoch nicht, dass sie tatsächlich menschlich ist.

Diese zwei Maßnahmen empfehlen wir Ihnen dringend im Umgang mit KI im Alltag:

1) Die eigene KI-Kompetenz stärken: Ein besseres Verständnis der Technologie reduziert Fehlannahmen.
2) Bewusst reflektieren: Auch wenn eine KI empathisch klingt, bleibt sie ein statistisches System.

BERECHNEN SIE JETZT DEN ROI VON QYMATIX PREDICTIVE SALES SOFTWARE

5. Der ELIZA-Effekt: Fazit

Sie können weiterhin mit Ihrem Handy sprechen oder Ihrem Staubsauger-Roboter einen Namen geben. Wichtig ist jedoch, sich bewusst zu machen, dass es keine zwischenmenschliche Kommunikation ist, sondern ein automatisch generierter Dialog.

Gerade moderne KI-Systeme verstärken den ELIZA-Effekt erheblich. Sie simulieren Empathie überzeugend und werden zunehmend für emotionale Unterstützung genutzt. Das kann hilfreich sein, birgt aber auch Risiken. Der richtige Umgang mit KI besteht daher darin, sie realistisch einzuordnen.

 

ICH MÖCHTE PREDICTIVE ANALYTICS FÜR DEN B2B-VERTRIEB
Literaturnachweis:

Gefangen im ELIZA-Effekt

Google-Ingenieur hält KI für fühlendes Wesen – und wird beurlaubt

Der Wandel Joseph Weizenbaums vom KI-Entwickler zum KI-Kritiker und sein Chatbot ELIZA. Analyse und Diskussion der Dokumentation „Plug & Pray“


Wohin dürfen wir das PDF senden?