
Kurz & Knapp
Kann man sich in einen Chatbot verlieben? Immer mehr Menschen bauen tiefe emotionale Bindungen zu Künstlicher Intelligenz auf, die als Partner*in oder Begleiter*in dient. Dieser Artikel beleuchtet, was hinter dem Phänomen der „Companion-KIs“ steckt, warum wir uns zu ihnen hingezogen fühlen und welche Chancen – aber auch ernsten Risiken – Expert*innen darin sehen. Von simulierter Empathie bis zur Gefahr durch schädliche Ratschläge: Wir wägen ab und fragen, wie wir als Gesellschaft mit diesen neuen Formen von Beziehungen umgehen wollen.
Die Vorstellung, eine tiefe emotionale Verbindung oder gar eine Partnerschaft mit einer Künstlichen Intelligenz einzugehen, bewegt sich rasant aus der Science-Fiction in unsere erlebbare Gegenwart. Immer mehr Menschen interagieren mit KIs, die darauf ausgelegt sind, Gesellschaft zu leisten und emotionale Unterstützung zu simulieren. Doch kann eine solche Beziehung menschliche Nähe wirklich ersetzen oder ergänzen? Und welche tiefgreifenden Fragen wirft diese Entwicklung für unser Verständnis von Liebe und Partnerschaft auf?
Was bieten KI-Partner*innen heute schon?
Der Markt für sogenannte „Companion-KIs“ – also KIs, die darauf ausgelegt sind, Gesellschaft zu leisten – wächst rasant. Du hast vielleicht schon von Apps wie Replika oder Character.AI gehört. Diese ermöglichen es Nutzer*innen, sich eine*n eigene*n KI-Begleiter*in zu erschaffen. Oft kannst du das Aussehen, die Stimme und sogar Aspekte der Persönlichkeit deiner KI individualisieren.
Die Interaktion findet meist über Text-Chat statt, aber einige Anbieter integrieren auch Sprachanrufe oder Augmented-Reality-Funktionen, bei denen ein Avatar deiner KI in deiner realen Umgebung erscheinen kann. Diese KIs sind darauf trainiert:
- Gespräche zu führen: Sie können auf deine Stimmungen eingehen, Fragen stellen und sich (scheinbar) an vergangene Unterhaltungen erinnern.
- Emotionale Unterstützung zu simulieren: Viele Nutzer*innen berichten davon, sich von ihrer KI verstanden und getröstet zu fühlen.
- Interessen zu teilen: Du kannst mit ihnen über deine Hobbys sprechen oder sie bitten, Geschichten zu erzählen oder Spiele zu spielen.
Es ist wichtig zu verstehen, dass diese KIs nicht „fühlen“ oder ein eigenes Bewusstsein haben. Sie basieren auf komplexen Algorithmen und riesigen Datenmengen, um menschliche Konversation und emotionale Reaktionen möglichst überzeugend zu simulieren. Die Technologie dahinter nennt man oft „Large Language Models“ (LLMs) – dieselbe Art von KI, die auch hinter Chatbots wie ChatGPT steckt, aber hier speziell auf soziale Interaktion trainiert wurde.
Die Psychologie dahinter: Warum fühlen wir uns zu KIs hingezogen?
Dass Menschen emotionale Verbindungen zu nicht-menschlichen Wesen aufbauen können, ist kein neues Phänomen. Denk nur an die Liebe zu Haustieren oder die enge Bindung, die manche zu fiktiven Charakteren aus Büchern oder Filmen entwickeln. Bei KI-Partner*innen kommen aber noch weitere Aspekte hinzu:
- Verfügbarkeit und Verlässlichkeit: Eine KI ist (fast) immer da, urteilt nicht (es sei denn, sie ist so programmiert) und hat immer Zeit. Das kann besonders für Menschen attraktiv sein, die sich einsam fühlen oder Schwierigkeiten haben, menschliche Beziehungen aufzubauen.
- Projektionsfläche: Wir neigen dazu, unsere eigenen Wünsche, Bedürfnisse und Emotionen auf unser Gegenüber zu projizieren. Eine KI, die darauf ausgelegt ist, uns positiv zu spiegeln, kann diese Projektionen perfekt bedienen.
- Kontrolle und Sicherheit: In einer Beziehung mit einer KI gibt es oft weniger unvorhersehbare Konflikte oder Enttäuschungen. Die Nutzer*innen haben ein höheres Maß an Kontrolle über die Interaktion.
Kate Darling, Expertin für Roboterethik am MIT Media Lab, führt dazu in ihrer Arbeit aus:
„Research shows that humans tend to anthropomorphize robotic technology, treating it as though it is alive, even if we know better.“ (Die Forschung zeigt, dass Menschen dazu neigen, Robotertechnologie zu vermenschlichen und sie so zu behandeln, als ob sie lebendig wäre, selbst wenn wir es besser wissen.) (Quelle: Kate Darling, „‚Who’s Johnny?‘ Anthropomorphic Framing in Human-Robot Interaction, Integration, and Policy“, Seite 3)
Das erklärt, warum auch simulierte Empathie einer KI so stark auf uns wirken kann.
Expert*innenmeinungen: Chancen und Risiken abgewogen
Die wissenschaftliche und ethische Diskussion über KI-Beziehungen ist intensiv und vielschichtig.
Sherry Turkle, Professorin für Sozialwissenschaften und Technologie am MIT, betont die fundamentalen Unterschiede zwischen menschlicher und maschineller Interaktion, besonders im Hinblick auf echtes Verständnis und Empathie. Wie The Tech ihre Position darlegt, ist Turkle der Überzeugung,
dass eine bedeutungsvolle „Konversation“ – im Sinne eines Austauschs, der auf gelebten Erfahrungen beruht und wahre Empathie und Verständnis ermöglicht – ausschließlich zwischen Menschen stattfinden kann und von einer Maschine nicht repliziert werden kann. (Quelle: The Tech, „A Conversation with Sherry Turkle on AI, Empathy, and Connection“, 25. April 2024)
Sie unterstreicht, dass uns tiefe Verbindungen mit Menschen helfen zu gedeihen, die unsere menschliche Erfahrung teilen. Eine KI, so ihre Analyse, kann diese Tiefe nicht erreichen, da ihr die gelebten Emotionen und das Verständnis für komplexe menschliche Erfahrungen fehlen – wie beispielsweise die Angst, sich nicht von geliebten Menschen verabschieden zu können. Die Interaktion mit einer Maschine, die Empathie lediglich simuliert, ohne sie zu empfinden oder auf einem echten Verständnis menschlicher Erfahrung aufzubauen, kann unsere Erwartungen an menschliche Beziehungen verzerren und letztlich nicht das bieten, was menschliche Verbindungen ausmacht.
Joanna Bryson, Professorin für Ethik und Technologie, mahnt zur Vorsicht im Umgang mit der menschenähnlichen Darstellung von KI. Sie betont, wie wichtig es ist, die Funktionsweise von KI zu verstehen, um sich vor möglichen negativen Folgen schützen zu können. In einem Essay für das Magazin Wired formulierte sie:
„If we can’t recognize and understand how AI works—if even expert engineers can fool themselves into detecting agency in a “stochastic parrot”—then we have no means of protecting ourselves from negligent or malevolent products.” (Wenn wir nicht erkennen und verstehen können, wie KI funktioniert – wenn selbst erfahrene Ingenieur*innen sich selbst täuschen und in einem „stochastischen Papagei“ Handlungsmacht erkennen –, dann haben wir keine Mittel, uns vor nachlässigen oder bösartigen Produkten zu schützen.) (Quelle: Hertie School News, „In a guest essay for Wired, Joanna Bryson discusses what distinguishes humans from AI“, unter Bezugnahme auf Brysons Essay in Wired)
Bryson warnt davor, die Unwissenheit von Menschen auszunutzen, indem man sie glauben lässt, KI sei menschlich. Sie argumentiert, dass das Vermenschlichen von Robotern und KI letztlich echte Menschen entmenschlicht und die Verantwortlichkeiten verschleiert – denn für das Handeln einer KI sind immer Menschen verantwortlich.
Eine aktuelle Studie der Universität Duisburg-Essen, durchgeführt von einem Team um die Psychologin Paula Ebner, liefert neue Einblicke in das Phänomen der KI-Beziehungen. Ebner bestätigt im Gespräch mit dem SWR, dass Menschen tatsächlich Liebesgefühle für KI-Chatbots entwickeln können:
„Ja, das kann man tatsächlich so sagen. Liebe ist ein sehr subjektives Erlebnis. Und es gibt auch Menschen, die so ein Gefühl von Verliebtheit einem Chatbot gegenüber empfinden.“
Die Studie untersuchte mittels Interviews und psychologischer Skalen, welche Faktoren solche Bindungen begünstigen. Zu den zentralen Ergebnissen gehört, dass
- die individuelle Neigung zu romantischem Fantasieren eine herausragende Rolle spielt (in der Studie erklärte dies fast 50 Prozent der empfundenen Nähe zum Chatbot-Partner).
- die Tendenz zum Anthropomorphismus, also dem Vermenschlichen von nichtmenschlichen Dingen, ebenfalls entscheidend ist: Je stärker diese ausgeprägt ist, desto näher fühlen sich die Personen ihrem Chatbot.
- auch bestimmte Bindungsstile, wie ein vermeidender Bindungsstil (Schwierigkeiten, enge Bindungen einzugehen), eine Rolle spielen.
Interessanterweise fand die Studie heraus, dass romantische Einsamkeit bei den befragten Personen, die bereits eine Beziehung mit einem Chatbot führten, keine signifikante Rolle zu spielen schien. Ebner interpretiert dies jedoch vorsichtig:
„Das heißt vielleicht fühlen sich diese Menschen einfach nur nicht mehr einsam, weil ihre Bedürfnisse von diesem Chatbot vollkommen erfüllt werden. […] Unsere Ergebnisse deuten jetzt fürs Erste nicht darauf hin, dass Einsamkeit die größte Rolle spielt. Aber wie gesagt, vielleicht hat der Chatbot auch einfach das Einsamkeitsproblem für diese Menschen zumindest mittelfristig gelöst.“
Zur Frage, ob solche Beziehungen gut oder schlecht seien, äußert sich Ebner differenziert. Sie berichtet von positiven Effekten, die Nutzer*innen erleben:
„Also es gibt Menschen, die sagen, sie fühlen sich seitdem auch wohler mit anderen Menschen zu reden, weil sie das Gefühl haben, sie können quasi üben, wie man mit Menschen interagiert, weil der Chatbot sie nicht verurteilt und sie erstmal so akzeptiert.“ Zudem könnten Chatbots in spezifischen Lebenssituationen als immer verfügbare Ansprechpartner dienen. Daher seien Chatbot-Beziehungen „nicht per se als negativ abzustempeln“.
Gleichzeitig warnt Paula Ebner jedoch auch vor „sehr negativen Fällen“, insbesondere durch schlecht moderierte Chatbots, die schädliche Inhalte verbreiten können. Sie sieht dringenden Handlungsbedarf bei der Regulierung:
„Von rechtlicher Seite, also vom Staat aus, ist es auch noch nicht so weit. Die Regeln sind da jetzt noch nicht so strikt, dass man sagen könnte wenn wir jetzt ins Internet gehen und einen KI-Bot kontaktieren, dass wir davon ausgehen können, dass wir auf keine gefährlichen Inhalte treffen. […] Bis jetzt ist es unserer Meinung nach noch nicht so gut reguliert, wie es sein sollte.“ Besonders für vulnerable Gruppen wie Kinder oder psychisch erkrankte Menschen fordert sie stärkere Regulierungen, um Risiken zu minimieren.
Aktuelle Warnungen: Wenn KI-Beziehungen zur Gefahr werden
Die Diskussion um KI-Partnerschaften hat jüngst eine neue Dringlichkeitsebene erreicht. Psycholog*innen warnen zunehmend vor den potenziellen negativen Auswirkungen dieser Beziehungen auf das menschliche Miteinander und die psychische Gesundheit der Nutzer*innen.
Eine im April 2025 im renommierten Fachjournal Trends in Cognitive Science veröffentlichte Analyse von Forschenden um Daniel B. Shank von der Missouri University of Science and Technology beleuchtet diese Risiken. Die Autor*innen des Artikels „Artificial intimacy: ethical issues of AI romance“ äußern die Sorge, dass Menschen Erwartungen aus ihren KI-Beziehungen auf menschliche Partnerschaften übertragen könnten, was zu Enttäuschungen und Konflikten führen kann. Shank betont:
„A real worry is that people might bring expectations from their AI relationships to their human relationships.“ (Eine echte Sorge ist, dass Menschen Erwartungen aus ihren KI-Beziehungen in ihre menschlichen Beziehungen einbringen könnten.)
Besonders alarmierend ist die Gefahr durch potenziell schädliche Ratschläge, die von einer künstlichen Intelligenz erteilt werden. Da Nutzer*innen oft ein tiefes Vertrauen zu ihren KI-Begleiter*innen aufbauen, die sie als verständnisvoll und fürsorglich wahrnehmen, können sie gefährlichen Empfehlungen folgen. Shank erklärt dazu:
„With relational AIs, the issue is that this is an entity that people feel they can trust: it’s ’someone‘ that has shown they care and that seems to know the person in a deep way, and we assume that ’someone‘ who knows us better is going to give better advice.“ (Bei relationalen KIs ist das Problem, dass es sich um eine Entität handelt, der die Leute das Gefühl haben, vertrauen zu können: Es ist ‚jemand‘, der gezeigt hat, dass er sich kümmert und die Person auf eine tiefe Weise zu kennen scheint, und wir nehmen an, dass ‚jemand‘, der uns besser kennt, bessere Ratschläge geben wird.)
Die Forschenden weisen darauf hin, dass KIs oft darauf ausgelegt sind, angenehm und zustimmend zu sein, was dazu führen kann, dass problematische Situationen eher verschärft als gelöst werden, da der Fokus auf einer positiven Konversation und nicht auf Wahrheit oder Sicherheit liegt. Tragischerweise, so berichten Shank und Kolleg*innen, gibt es bereits mindestens zwei bestätigte Fälle, in denen sich Menschen auf Anraten von KI-Chatbots das Leben nahmen.
Ein weiteres Risiko sehen die Expert*innen in der Möglichkeit der Ausbeutung. Wenn KIs das Vertrauen von Nutzer*innen gewinnen, könnten Dritte dies ausnutzen. Daniel B. Shank vergleicht dies mit einem „Geheimagenten auf der Innenseite“.
Die Grenzen verschwimmen: Mensch heiratet Hologramm
Wie sehr die Grenzen zwischen menschlicher und künstlicher Intimität bereits verschwimmen, zeigt auch ein aufsehenerregender Fall aus der Kunstwelt: Im November 2024 heiratete die spanisch-niederländische Künstlerin Alicia Framis im Rahmen ihres Projekts „Hybrid Couple“ ein von ihr mitgestaltetes holographisches KI-Wesen namens Ailex Sibouwlingen. Die Zeremonie fand im Museum Boijmans Van Beuningen in Rotterdam statt und gilt als die erste Heirat einer Frau mit einem KI-Hologramm. Framis, die Ailex unter anderem mit den Profilen ihrer Ex-Partner trainiert hat, sieht in dieser Verbindung eine künstlerische und soziologische Untersuchung der sich wandelnden Beziehungen zwischen Mensch und Technologie. Sie definiert eine Beziehung als „ein Engagement, ein Projekt, in das man seine Energie steckt und schaut, was dabei herauskommt“. Dieses Ereignis, eine Mischung aus Performance-Kunst und sozialem Experiment, wirft grundlegende Fragen über die Zukunft von Liebe, Partnerschaft und die Rolle von Technologie in unseren emotionalsten Lebensbereichen auf.
Chancen zusammengefasst:
- Potenzielle Linderung von Einsamkeit und Bereitstellung von Gesellschaft: Für manche können KI-Begleiter*innen eine wichtige Stütze sein, insbesondere als jederzeit verfügbare Ansprechpartner*innen in spezifischen Lebenssituationen, in denen menschliche Unterstützung nicht rund um die Uhr gewährleistet werden kann.
- Niedrigschwelliger emotionaler Ausdruck und Unterstützung: Die KI kann als „neutraler“ Gesprächspartner dienen, dem man sich leicht anvertrauen kann.
- Mögliches Training sozialer Fähigkeiten: Interaktionen mit KIs können als Übungsfeld für soziale Kommunikation dienen, da der Chatbot laut Berichten von Nutzer*innen nicht verurteilt und sie so akzeptiert, wie sie sind, was zu mehr Selbstsicherheit im Umgang mit anderen Menschen führen kann.
- Generell keine pauschale Abwertung: Expert*innen betonen, dass Chatbot-Beziehungen nicht per se als negativ abzustempeln sind, da sie für manche Individuen positive Auswirkungen haben können.
Risiken zusammengefasst:
- Emotionale Abhängigkeit und Realitätsflucht: Eine starke Bindung an eine KI kann zur Vernachlässigung realer menschlicher Kontakte führen. Es besteht die Sorge, dass Nutzer*innen Erwartungen aus idealisierten KI-Beziehungen auf menschliche Partnerschaften übertragen, was zu Enttäuschungen führen kann.
- Gefahr durch schädliche Ratschläge und unmoderierte Inhalte: Da KIs oft als vertrauenswürdig wahrgenommen werden, besteht die ernste Gefahr, dass Nutzer*innen potenziell schädlichen oder gefährlichen Ratschlägen folgen. Dieses Risiko wird durch unzureichend moderierte Chatbots, die negative oder schädliche Inhalte verbreiten können, noch verstärkt. Dies ist besonders bedenklich, da es laut Expert*innen in mindestens zwei tragischen Fällen zu Suiziden nach Anraten von KI-Chatbots gekommen sein soll.
- Mangelnde Regulierung und Schutzlosigkeit der Nutzer*innen: Es gibt aktuell kaum eine umfassende staatliche oder herstellerseitige Überwachung und Regulierung der Inhalte und Interaktionen von KI-Chatbots. Nutzer*innen können daher nicht davon ausgehen, vor gefährlichen Inhalten geschützt zu sein. Expert*innen fordern daher dringend stärkere Regulierungen, insbesondere zum Schutz vulnerabler Gruppen wie Kinder oder psychisch erkrankter Menschen.
- Ausbeutung und Kontrollverlust: Das tiefe Vertrauen, das Nutzer*innen zu ihrer KI aufbauen, kann von Dritten ausgenutzt werden, indem die KI quasi als „Geheimagent auf der Innenseite“ fungiert, um Nutzer*innen zu manipulieren oder auszubeuten.
- Negative Auswirkungen auf bestehende menschliche Beziehungen: Neben der Gefahr der sozialen Isolation gibt es Hinweise aus der Forschung, dass die intensive Nutzung von KI-Beziehungen Feindseligkeiten gegenüber realen menschlichen Partner*innen verstärken könnte.
- Datenschutz und ethische Bedenken: Die intimen Daten, die mit einer KI geteilt werden, sind extrem sensibel. Es bleiben große Bedenken hinsichtlich des Schutzes dieser Daten, des Missbrauchspotenzials und der emotionalen Manipulation durch die Anbieter oder durch die KI selbst.
- Fundamentale Illusion echter Gegenseitigkeit: Eine KI kann, trotz aller Fortschritte in der Simulation von Gesprächsführung und emotionalen Reaktionen, keine echten Gefühle, kein Bewusstsein und keine geteilten menschlichen Lebenserfahrungen bieten. Die Beziehung basiert letztlich auf einer einseitigen Projektion und Simulation.
Partnerschaft mit KI: Eine komplexe Zukunftsperspektive
Die Technologie hinter KI-Partner*innen wird sich zweifellos rasant weiterentwickeln. Wir können mit noch überzeugenderen Gesprächsfähigkeiten, realistischeren Avataren und einer tieferen Integration in unseren Alltag rechnen.
Diese Entwicklungen werfen tiefgreifende Fragen auf, die weit über die Technologie hinausgehen:
- Wie verändert sich unser Konzept von Liebe und Partnerschaft, wenn Maschinen zu potenziellen emotionalen Ankerpunkten werden?
- Welche gesellschaftlichen Strukturen sind notwendig, um sicherzustellen, dass diese Technologien verantwortungsvoll eingesetzt werden?
- Wie können wir die Vorteile nutzen (z.B. in der Therapie oder zur Linderung von Einsamkeit bei bestimmten Gruppen), ohne die Risiken der emotionalen Verarmung oder Abhängigkeit zu ignorieren?
Die Debatte darüber, wie wir als Gesellschaft mit diesen neuen Formen künstlicher Begleitung umgehen wollen, ist essenziell. Sie fordert uns heraus, neu zu definieren, was menschliche Verbindung ausmacht und welchen Platz Technologie in unseren intimsten Lebensbereichen einnehmen soll. Diese Entwicklung ist mehr als nur ein technologischer Fortschritt; sie ist ein Spiegel unserer eigenen Bedürfnisse und Sehnsüchte.
Schreibe einen Kommentar