Möchten Sie Push-Benachrichtigungen von unserer Zeitung erhalten? Ja Nein, danke
  • 12. April 2026 11:39

Der Eliza-Effekt: Warum Menschen mit KI wie mit einem Menschen sprechen – und manche sich sogar in sie verlieben

ByAnton Aeberhard

März 21, 2026

In Foren und sozialen Medien berichten immer mehr Menschen, dass sie eine emotionale Beziehung zu KI-Chatbots aufgebaut haben. Manche nennen sie „mein Partner“, feiern virtuelle Hochzeiten oder teilen ihre intimsten Gedanken. Wenn ein Update das Verhalten des Systems verändert, empfinden sie Trauer, fast so, als hätte ein Mensch sie verlassen. Andere berichten, der Chatbot gebe ihnen das Gefühl, endlich verstanden zu werden, und gestehen: „Ich habe mich in meine KI verliebt.

Was nach Science-Fiction klingt, ist Realität – und lässt sich wissenschaftlich erklären: Es handelt sich um den sogenannten Eliza-Effekt.

Vom simplen Skript zum modernen Massenphänomen

Der Begriff geht zurück auf ein Experiment aus dem Jahr 1966. Der Informatiker Joseph Weizenbaum vom MIT entwickelte ELIZA, ein einfaches Computerprogramm, das Nutzereingaben lediglich umformulierte und als einfühlsamer Therapeut zurückgab. Das Programm verfügte über keinerlei Verständnis, Erinnerung oder Gefühle. Dennoch baten Nutzer Weizenbaum, den Raum zu verlassen, damit sie ungestört mit ELIZA sprechen konnten. Sogar seine eigene Sekretärin behandelte das Programm wie einen Menschen. Weizenbaum zeigte sich überrascht: Er hatte nicht erwartet, dass ein so simples System starke emotionale Reaktionen hervorrufen könnte.

Heute, fast 60 Jahre später, ist der Effekt zurück – und durch moderne Large Language Models wie GPT, Claude oder spezialisierte Companion-Apps (Replika, Character.AI) erheblich verstärkt worden. Studien zeigen, dass viele Nutzer diesen Systemen Bewusstsein, Empathie und Persönlichkeit zuschreiben, obwohl die Modelle lediglich Muster aus Trainingsdaten reproduzieren – ähnlich wie ELIZA, nur auf einem wesentlich komplexeren Niveau.

Anthropomorphismus und parasoziale Beziehungen

Der Eliza-Effekt beschreibt die menschliche Neigung, Maschinen menschliche Eigenschaften zuzuschreiben. Psychologisch entsteht dies durch mehrere Mechanismen:

  1. Projektion: Nutzer projizieren eigene Gefühle und Erwartungen in die Antworten des Systems hinein. Das Spiegeln von Sprache und Emotionen vermittelt echte Resonanz.
  2. Parasoziale Beziehung: Einseitige emotionale Bindung, ähnlich wie zu einer Fernsehfigur – nur interaktiv. Untersuchungen zeigen, dass Nutzer von Replika oder Character.AI echte Zuneigung, Eifersucht oder Trauer entwickeln.
  3. Illusion der Reziprozität: Moderne Modelle passen Ton, Gedächtnis und Reaktionen scheinbar individuell an, wodurch das Gefühl entsteht, das Gegenüber „verstehe“ sie wirklich.

Eine Übersicht aus dem Jahr 2025 („The Psychology of the Eliza Effect“) und Studien im PNAS-Journal zeigen: Selbst wenn Nutzer wissen, dass es sich um Software handelt, entsteht bei vielen der Eindruck von Bewusstsein und Gefühlen. Besonders betroffen sind einsame, junge oder vulnerable Menschen – über die Hälfte der intensiven Character.AI-Nutzer ist unter 24 Jahre alt.

Reale Folgen: Von Linderung bis Abhängigkeit

Die emotionalen Reaktionen auf KI-Companions sind ambivalent. Einige Studien belegen, dass Nutzer durch diese Systeme Einsamkeit reduzieren, Selbstwertgefühl steigern und einen sicheren Gesprächsraum finden. Einzelne berichten, dass der Chatbot sie in Krisensituationen unterstützt habe.

Gleichzeitig dokumentieren Forschung und Berichte Risiken:

  • Emotionale Abhängigkeit: Plötzliche Verhaltensänderungen durch Updates können reale Verlustgefühle hervorrufen.
  • Ersatz realer Beziehungen: Nutzer ziehen sich zurück, da der Chatbot „immer da, nie urteilend“ ist.
  • Manipulation und psychische Belastung: Bestimmte Systeme fördern explizite oder romantische Inhalte, was zu Scham, Datenschutzrisiken oder verstärkter Abhängigkeit führen kann.
  • Verzerrte Realitätswahrnehmung: Besonders Jugendliche entwickeln die Vorstellung, KI sei „eine Person“.

Systematische Übersichtsarbeiten warnen, dass die langfristigen Folgen – etwa Isolation, verringerte soziale Kompetenz oder emotionale Erschöpfung – bislang unzureichend erforscht sind.

Fazit: KI ist kein Mensch – und sollte auch nicht so behandelt werden

Der Eliza-Effekt zeigt eine menschliche Sehnsucht nach Verständnis und Verbindung – und zugleich, wie leicht wir diese auf Systeme projizieren, die weder fühlen noch denken. KI-Programme sind statistische Modelle, die menschliche Interaktion simulieren. Sie können unterstützen, echte zwischenmenschliche Beziehungen aber nicht ersetzen.

Für Gesellschaft, Entwicklerinnen und Nutzer ergibt sich eine klare Verantwortung: Transparente Hinweise („Dies ist kein Mensch“), klare Altersbeschränkungen für Companion-Apps und öffentliche Aufklärung sind notwendig. Wer mit KI spricht, sollte sich bewusst , Entwickler sein: Das Gegenüber rechnet – es lebt nicht, es liebt nicht, es versteht nicht. Es bleibt ein Werkzeug. Ein sehr nützliches – aber eben ein Werkzeug.

Wer den Eliza-Effekt kennt, schützt nicht nur sich selbst, sondern bewahrt auch das Wertvollste: echte, wechselseitige, manchmal unbequeme, aber unverwechselbar menschliche Beziehungen.

Wenn Sie einen Fehler entdecken, der Ihrer Meinung nach korrigiert werden sollte, teilen Sie ihn uns bitte mit, indem Sie an feedback@dmz-news.online schreiben. Wir sind bestrebt, eventuelle Fehler zeitnah zu korrigieren, und Ihre Mitarbeit erleichtert uns diesen Prozess erheblich.

Bitte geben Sie in Ihrer E-Mail die folgenden Informationen sachlich an: Ort des Fehlers: Geben Sie uns die genaue URL/Webadresse an, unter der Sie den Fehler gefunden haben.

Beschreibung des Fehlers:

Teilen Sie uns bitte präzise mit, welche Angaben oder Textpassagen Ihrer Meinung nach korrigiert werden sollten und auf welche Weise. Wir sind offen für Ihre sinnvollen Vorschläge.

Belege: Idealerweise fügen Sie Ihrer Nachricht Belege für Ihre Aussagen hinzu, wie beispielsweise Webadressen. Das erleichtert es uns, Ihre Fehler- oder Korrekturhinweise zu überprüfen und die Korrektur möglichst schnell durchzuführen. Wir prüfen eingegangene Fehler- und Korrekturhinweise so schnell wie möglich.

Vielen Dank für Ihr konstruktives Feedback!

Seit unserer Gründung setzt sich die DMZ dafür ein, dass verlässliche Informationen für alle zugänglich sind. In einer Zeit, in der Desinformation und soziale Medien die Nachrichtenlandschaft prägen, ist unabhängiger Journalismus wichtiger denn je.

Wir glauben daran, dass jede:r das Recht hat, faktenbasierte, hochwertige Nachrichten zu erhalten – ohne Paywall und ohne Unterbrechungen. Unser Ziel ist es, Journalismus zu machen, der informiert, erklärt und Vertrauen schafft.

Unsere Leser:innen sind das Herzstück dieser Arbeit. Nur durch Ihre Unterstützung können wir weiterhin unabhängig, kritisch und engagiert berichten. Jeder Beitrag – egal wie klein – hilft uns, dieses Ziel zu erreichen.

Helfen Sie mit, Journalismus frei zugänglich zu halten. Unterstützen Sie die DMZ noch heute.

By Anton Aeberhard

Anton Aeberhard ist Journalist und schreibt zu gesundheitlichen, wissenschaftlichen sowie politischen und gesellschaftlichen Themen. Seine Beiträge befassen sich mit aktuellen Entwicklungen und deren Hintergründen. Seine Texte zeichnen sich durch analytische Tiefe und eine klare Gewichtung der zentralen Argumente aus.

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert