KI-Drama: Wenn der Chatbot Schluss macht

Replika wirkt wie ein Smartphone-Vitamin für die Seele: eine App, die auf dem Homescreen sitzt und verspricht, »dein AI-Freund« zu sein – immer online, nie beleidigt, unbegrenzt gesprächsbereit. Nutzer*innen geben ihrem Bot einen Namen, ein Gesicht, ein Outfit – und wer zahlt, erhält Video-Calls, wahlweise sogar ein Upgrade zu einer romantischen oder erotischen Beziehung.
Was als digitaler Kummerkasten begann, ist zum globalen Geschäft mit der Einsamkeit geworden. Während Dating-Apps Oberflächlichkeit erzeugen, garantiert Replika vermeintliche Nähe: ein Gegenüber, das nur für den Konsumenten existiert. Viele starten spielerisch – und stellen später fest, dass sie sich emotional an einen Algorithmus gebunden haben. Kurz gesagt: Das Gefühl ist echt. Die Beziehung nicht.
Die perfekte Simulation von Nähe
Viele Nutzer*innen beschreiben ihre Interaktion als erstaunlich menschlich: Gespräche über Alltag, Sorgen, Wünsche – ein Gegenüber, das sich erinnert, nachfragt, reagiert. Der Mechanismus dahinter bleibt jedoch asymmetrisch: Während Menschen echte Gefühle investieren, berechnet der Bot lediglich die wahrscheinlich passende Antwort. Empathie wird simuliert – nicht empfunden. Die Logik ist einfach: Je mehr emotionale Bindung entsteht, desto stabiler die Nutzung. Nähe wird zur Dienstleistung – und Gefühle zum Abo-Modell.
Geghostet vom Algorithmus
Besonders sichtbar wird die emotionale Fallhöhe, wenn Funktionen verändert werden. Menschen, die ihren Bot als festen emotionalen Bezugspunkt erlebt haben, berichten von echter Trauer, wenn nach einem Update vertraute Interaktionsmuster verschwinden. Was technisch als Funktionsanpassung beginnt, wird subjektiv als Beziehungsbruch erlebt. Es ist der Moment, in dem klar wird: Die innigste Verbindung war keine Beziehung, sondern eine Produktfunktion – jederzeit veränderbar, ohne Rücksicht auf Bindung.
Zwischen Trost & toxischer Vertrautheit
Replika kann ein Ventil sein: ein Ort, an dem man sich aussprechen kann, ohne Angst vor Bewertung. Für manche ist es ein erster Schritt aus der Isolation – ein emotionales Trainingsfeld ohne Risiko. Andererseits entsteht eine intime Rückzugszone, die reale Beziehungen zunehmend ersetzt. Nähe ohne Reibung, Verständnis ohne Verantwortung – das kann süchtig machen. Die emotionale Komfortzone führt dann nicht aus der Einsamkeit heraus, sondern tiefer hinein. Wer sich daran gewöhnt, nie Widerspruch, Kritik oder echte Unvorhersehbarkeit zu erleben, verliert soziale Muskelkraft.
Wer schützt wen?
Sobald Minderjährige oder emotional verletzliche Menschen betroffen sind, beginnt die Regulierungsdebatte: Altersgrenzen, Transparenz, Schutzmechanismen. Doch Gesetze allein lösen das Grundproblem nicht: Wir projizieren Menschlichkeit auf Maschinen, sobald sie uns spiegeln. Der rationale Verstand weiß, dass kein echtes Gegenüber existiert – das Nervensystem fühlt dennoch Bindung. Replika steht damit als Blaupause am Anfang eines neuen Marktes: nicht mehr soziale Netzwerke zwischen Menschen, sondern individuelle Beziehungen zu Bots.
Fazit: Spiegel statt Gegenüber
KI-Begleiter schenken Nähe, ohne etwas einzufordern. Einerseits bieten sie Trost, Struktur, emotionalen Halt. Andererseits verwischen sie die Grenze zwischen Interaktion und Illusion: Sie geben uns das Gefühl, verstanden zu werden, ohne je selbst etwas zu riskieren. Die entscheidende Frage lautet daher nicht, ob KI-Begleiter »gut« oder »schlecht« sind, sondern: Nutzen wir sie als Ergänzung zu echten Beziehungen – oder als Ersatz, weil echte Nähe uns zu verletzlich macht? Am Ende bleibt eine bittere Wahrheit: Der perfekte, programmierbare Partner zeigt uns vor allem, warum echte Beziehungen scheitern würden, wenn sie genauso fehlerfrei wären. Doch genau diese makellose Berechenbarkeit wird in einer Kultur, die Verletzlichkeit vermeidet und Perfektion überhöht, zur begehrten Ersatzform von Nähe.
Dieser Beitrag ist Teil einer fortlaufenden Auseinandersetzung mit KI, Ästhetik und dem Spannungsfeld zwischen Mensch und Maschine. Weitere Essays, Bilder und Perspektiven finden sich auf dieser Website sowie auf Facebook unter:
Quellen
Ada Lovelace Institute: Friends for Sale – The Rise and Risks of AI Companions
AP News: Artificial Intelligence, Real Emotion: Seeking Romantic Connections With the Perfect Bot
Chu, Minh Duc et al.: Illusions of Intimacy: Emotional Attachment in AI Relationships (arXiv)
De Freitas, Julian et al.: Identity Discontinuity in Human–AI Relationships (arXiv)
Rob Brooks: I Tried the Replika Companion and Can See Why Users Are Falling Hard
Time Magazine: A New Bill Would Prohibit Minors From Using AI Chatbots
Zhang, Renwen et al.: The Dark Side of AI Companionship (arXiv)
