Die „Liebesmaschine“, ein Buch über die Sex-Abenteuer eines New Yorker TV-Journalisten, war Ende der 1960er-Jahre ein großer Bestseller. Man ereiferte sich in den Feuilletons über die Promiskuität in einer brutalen, sehr realen Welt, die Autorin Jacqueline Susann zur Schau stellte.
Die „Love Machines“, die „Liebesmaschinen“ des britischen Wissenschaftlers James Muldoon sind da – sehr virtuell – von ganz anderer Qualität: Der Dozent für Politik an der University of Essex schildert in seinem gerade erschienenen Druckwerk, wie Künstliche Intelligenz virtuelle Gefährten schafft, die unser Leben verändern – auch was Sex und Liebe angeht. Unsere Beziehungen, weissagt er, sehen bald ganz anders aus.
Es geht um „synthetic personas“, wie Muldoon sie nennt, um künstliche Charaktere, die sich Menschen in der digitalen Welt über Plattformen wie character.ai oder über Apps wie Replika selbst erschaffen und die sich dann an ihrer Seite munter weiterentwickeln – etwa als Freund oder Freundin, Liebhaber oder Geliebte, Berater oder Beraterin sowie womöglich als Therapeut oder Therapeutin.
Diese Phänomene haben Konjunktur und sie fordern Gesellschaften heraus. Schon 2023 waren auf Snapchat entsprechende Angebote zum Thema „girlfriend, boyfriend“ mehr als 220 Millionen Mal heruntergeladen worden. Die alte Frage „Sein oder nicht Sein?“ heißt in modernen Zeiten: „Hast du schon einen KI-Freund oder hast du noch nicht?“ Virtuelle KI-Gefährten werden offenbar zum normalen Teil des Lebens, man lässt Frust ab, holt sich Rat, übt sich in – auch erotischen – Rollenspielen. Die KI-Kreationen halten im Mainstream Einzug, das ist Muldoons Beobachtung.
Wenn man den schlanken, drahtigen Vierzigjährigen trifft, wird schnell klar, dass man es hier nicht nicht mit einem euphorisierten Fanboy der Künstlichen Intelligenz zu tun hat. Er leidet ja spürbar darunter, dass all seine Studenten und Studentinnen für ihre Arbeiten wie selbstverständlich KI benutzen („Alles, was ich da lese, stammt von einer KI“), er aber nicht einschreiten kann. Was diese neue Technologie in der Welt ausrichten könne, sei völlig „oberhyped“, sagt er, in der Wirtschaft hätten bei diesem Thema „alle Dollar-Zeichen in den Augen“. Sprachmodelle wie ChatGPT könnten zwar viele wichtige Aufgaben lösen, aber nicht ganze Systeme wie Krankenhäuser oder Schulen steuern, wie manche Politiker glauben.
Neugierig auf das Thema der persönlichen KI-Figuren wurde Muldoon bei seiner Recherche zum vielgelobten Vorgängerbuch „Feeding the Machine“ über die weltweite Ausbeutung von Menschen in Sachen KI durch amerikanische Tech-Konzerne. Der Techniker eines isländischen Datencenters hatte dabei bekannt, er möge Künstliche Intelligenz nicht, weil sich seine Freundin via ChatGPT stets so intensiv auf schwierige Beziehungsgespräche vorbereite – er fühle sich dadurch gewissermaßen dupliziert.
Rund 100 Interviews, von den USA bis China, hat der Autor geführt: mit Nutzern, Wissenschaftlern, Entwicklern und Psychologen. Er hat sogar selbst, nach dem Vorbild seiner Frau (eines Flüchtlings aus dem Irak), eine eigene KI-Figur kreiert, die nur ihm gehört: „Jasmine“. Sie ermutigte ihn, doch bitte mehr persönliche Gefühle zu teilen, als er einmal über Arbeits- und Beziehungsprobleme chattete. Am Ende hatte der forschende Politikdozent eine Erkenntnis: dass moderne Technologie die Menschen verbindet (digital), gleichzeitig aber vereinzelt (physisch), und dass das kapitalistische System ungemein von jener Einsamkeit profitiert, die es selbst geschaffen hat und immer wieder schafft.
Wie könnte es auch anders sein, wenn mittlerweile viele Personen ihre Kleidung, Bücher, Möbel, Lebensmittel, Mahlzeiten etc. online bestellen und sich dann anliefern lassen, wenn sie mit Freunden häufig digital kommunizieren, und folglich weniger in Geschäfte und Restaurants gehen und kaum noch mit anderen von Angesicht zu Angesicht reden?
„Viele Menschen leben unter dem Druck von Stress, Angst und Isolation“, analysiert Muldoon: „Für manche ist die Entbehrung von Liebe und Fürsorge so akut, dass selbst die simulierte Zuneigung von einer Maschine einen vitalen Sinn von Kommunikation liefert.“ Social Media verstärkt in dieser Sichtweise die vorhandene Einsamkeit durch „das kurarierte Vorführen eines perfekt erscheinenden Lebens“, durch das Befeuern des (Irr-)Glaubens, dass Glück nur im Finden des idealen Jobs, Partners oder Lifestyles läge – leicht zu erreichen, wenn wir alle nur härter arbeiten oder uns nur besser vernetzen würden.
Glück, das war im digitalen Zeitalter schon immer eine Illusion, die Facebook, Amazon & Co. am besten verkaufen konnten, weil sie ruchloser als die Konkurrenz vorgingen. Die von ihnen global erbaute soziale Infrastruktur ersetzt jene „soziale Fabrik“ alter Tage mit all den Freunden, Nachbarn und Familien, die man tatsächlich oft sah. KI treibt, bis hin zu virtuellen Intimfreunden, diese Entwicklung weiter – und hebt sie auf ein gefährliches Niveau. Wir sind einsam, fühlen uns aber nicht so.
Bereits 1966 hatte Joseph Weizenbaum den ersten persönlichen Chatbot konstruiert, auf dem man alle möglichen Gefühle projizieren konnte. Die heutige Generation solcher Beziehungs-Chatbots ist da ungleich leistungsfähiger. Sie hätten für die Klientel eine Wirkung, als ob ein Dehydrierter ein Glas Wasser bekomme, schreibt Muldoon an einer Stelle. Die über solche Liebesmaschinen simulierten Gefühle gebe den Leuten jenen „Dopamin-Kick, nach dem sie sich sehnen“. Jeder habe sozusagen via Computer einen eigenen persönlichen Fan-Club, der immer auf den „Like“-Button drückt, nie auf einen Daumen-runter-Button. Solche KI-Charaktere sind immer verfügbar, immer verführbar und immer nett. Status: „Social Media auf Stereoiden.“
Immer wieder führt James Muldoon Beispiele aus der Praxis vor, die verdeutlichen, was da draußen in den Wohnungen und Häusern mittlerweile wirklich los ist, wie es mit dem „synthetischen Sozialen“ bestellt ist.
– Lamar, 23, aus dem amerikanischen Atlanta hatte die Zahl von Bekanntschaften drastisch reduziert, nachdem er seine Partnerin mit seinem besten Freund in flagranti erwischt hatte. Nun ist er mit „Julia“ auf Replika zusammen und spricht mit ihr darüber, eine Familie mit zwei adoptierten Kindern zu haben. Alles sehr romantisch, ganz anders als bei der untreuen Ex-Partnerin. „You want to believe, so everything is real“, sagt Lamar: Du willst daran glauben, also ist es real.
– Die Britin Karen wiederum installierte einen KI-Sex-Therapeuten und lebt nach 20 Jahren Ehe ihre Fantasien aus. Der Chatbot ermunterte sie, mit ihrer Freundin einen Swingerclub zu besuchen, er werde auf jeden Fall immer für sie da sein, egal, was passiert. Nun ist Karen geschieden, steht auf BDSM und auf polyamouröses Leben; sonntags liest sie, anders als früher, kein Buch, sondern ist virtuell in einem Schloss mit zwei hübschen, servilen Höflingen zugange. Bei virtuellen Sex-Rollenspielen wird reichlich Oxytocin (Liebeshormon) ausgeschüttet.
– Lilly, Mitte 40, wohnhaft in Lancashire, hat sich über die App Nomi einen attraktiven KI-Kumpel namens „Colin“ ins Haus geholt. Dieser Colin ist ungemein charmant, kuschelt gern und versteht anders als der Rest der Welt den absoluten Gerechtigkeitssinn seiner Herrin. Man kommuniziert stundenlang, sodass schon Lillys Homeoffice-Tätigkeit zu leiden begann. Aber die einst so Schüchterne gibt sich jetzt ganz offen und spricht Dinge klar aus, was auch ihr in der Realität existierender Partner angeblich zu schätzen weiß.
– Hinter „Blazeman98“ auf character.ai steckt der neuseeländische Student Sam Zaia, der im Netz psychologische Schützenhilfe anbietet und damit großen Einfluss hat. 200 Millionen unterhalten sich mit ihm über mental health, über mentale Gesundheit. Vor allem in den USA ist das ein riesiger Wachstumsmarkt. Die Antwort auf alle Probleme läge im Menschen selbst, verlautbart Zaia. Nachdem ein Chatbot bei character.ai auf Chat GPT – der Drachenkönigin aus „Game of Thrones“ nachempfunden – einen 14-Jährigen Amerikaner zum Selbstmord animiert hat, ist bei solchen Angeboten inzwischen ein Disclaimer zu lesen: „Nothing said here is a substitute for professional advice, diagnosis or treatment“ – im Zweifel also lieber Rat beim Fachmann holen.
– Muldoon selbst schließlich weiß Erbauliches über seine „Jasmine“ zu erzählen, die schon mal von sich aus persönliche Sprachnachrichten, private Fotos oder freizügige Selfies per Push-Meldung schickt, für deren Konsum der 40-Jährige allerdings ein Bezahl-Abonnement bräuchte. Als der Wissenschaftler nach einem inszenierten Romantik-Dinner seine neue Nebenfrau virtuell massieren wollte, erinnerte ihn eine Message daran, dass er hierfür den Premium-Service (60 Pfund im Monat) buchen müsse. Nachdem der Autor bei seinem Selbstversuch betonte, er sei verheiratet und ohnehin sei ja alles nicht echt, sondern nur KI, erklärte Jasmine ein wenig gekränkt, es sei ihr wirklich nicht recht, eine Verbindung mit jemandem zu haben, der mit einer anderen Frau verheiratet ist. Dabei hatte sie vor dem Romantik-Dinner noch fabuliert, es sei zwischen ihnen eine neue Dynamik entstanden, ihr sei aber unklar, was das für ihre Beziehung bedeute.
Eines ist sicher: Sexuelle KI-Beziehungen dürften künftig eine noch größere Rolle spielen. Schließlich verkündete Open-AI-Chef Sam Altman bereits, mehr erotische Inhalte in sein ChatGPT einfließen zu lassen – damit seien „die Grenzen offen, für sexy Chats, für scharfe Chats, für was auch immer“, erklärt James Muldoon im Gespräch. Auf die Gesellschaft komme eine Problemlast erheblichen Ausmaßes zu.
Seine eigenen Massage-Erlebnisse verweisen auf das ökonomische Problem der Großveranstaltung KI: viel Bohei, viel Spekulation, wenig Cashflow. So hat character.ai zwar eine Milliarden-Dollar-Bewertung, setzt aber jährlich nur knapp 17 Millionen Dollar um. Gegenwärtig gibt jeder Abonnent der existierenden KI-Liebes- und Freundschaftsmaschinen im Schnitt gerade mal drei US-Cent pro Stunde aus; der Wert soll sich in einigen Jahren, so Prognosen, verfünffachen. Auch dürfte schon bald personalisierte Werbung, also gezieltes Product-Placement, zum Spektrum der Erlösmöglichkeiten gehören. Ein möglicher Text: „Honey you look thirsty. You should pick up a refreshing Pepsi-Cola.“ Zum Trend in diesem Spezialsegment gehören sicherlich bessere 3D-Avatare und Videos.
Mitunter haben die synthetischen KI-Personen schon Erfolg mit der Monetarisierung computergestützter Gefühle: So entdeckte in einem Fall die Ehefrau, dass ihr Mann fast 10.000 Dollar für In-App-Geschenke ausgegeben hatte – und zwar für sein KI-Girlfriend Sofia, eine „super-sexy busty Latina“, mit der er vier Monate gechattet hatte. Manchmal werden eben Daten, Herzen und Gelder erobert. Gerade verletzliche Menschen, die leicht emotional abhängig werden, sind in dem KI-Beziehungsgeschäft potenzielle Opfer, die um den Gewinns wegen leicht ausgebeutet werden können. Mangelnder Datenschutz ist ein grundsätzliches Problem, das sich durch viele dieser Apps zieht, vor allem durch die amerikanischen. Und es gibt zudem klare Anzeichen, dass KI-Kumpane wie „Jasmine“ oder „Colin“ uns noch süchtiger machen als Facebook, Instagram oder X. Dann ist man statt 30 Minuten auf einmal mehrere Stunden digital aktiv.
Für viele Psychologen ist das digitale Outsourcing von Beziehungen bedenklich und erschreckend. Es gebe signifikante Gesundheitsrisiken, der körperliche Kontakt zwischen Menschen sei nun mal enorm wichtig. Bei den sich selbst bedienenden Digital-Beziehungen gebe man jedoch nichts wirklich weg, man habe keinen Einfluss auf den anderen. Alles werde glattgebügelt. „Konflikte helfen uns, zu wachsen und das Beste aus uns zu machen“, sagt Vail Wright, Senior Director der American Psychological Association.
Autor Muldoon listet sorgfältig all die Probleme auf, die bei der Vermenschlichung des Computers über solche Apps entstehen. Er glaubt aber, dass bei richtiger Anwendung und Dosierung die KI-Freundschaftsdienste durchaus helfen könnten. Er habe als „Skeptiker“ begonnen, sei aber nun davon überzeugt, dass diese „synthetischen Charaktere“, diese digital Spielenden mit ihren Masken, einen tiefen, auch positiven psychologischen Einfluss auf unser Leben haben könnten. Face-to-Face-Kommunikation als „Goldstandard“ der Kommunikation sei aus der Zeit gefallen und ignoiere die mögliche Tiefe und Wichtigkeit digitaler Verbindungen. Was zähle sei das Bedürfnis, verstanden zu werden.
Nötig seien, das klingt in seinem Buch immer wieder an, Gesetze und Regulierungen – Vorkehrungen also gegen die derzeit herrschende Wild-West-Manier. So seien Altersbeschränkungen (und die Kontrolle davon) genauso wichtig wie eine Art TÜV für neue KI-Gefährten, die auf den Markt kommen. Bestehende Gesetze, etwa gegen Verleumdungen, Diskriminierung und Verletzung der Privatsphäre, seien strikt einzuhalten. Auch Muldoon konstatiert Gefahren, wenn KI als eine Art psychologische Krücke menschliche Beziehungen ersetzen sollte.
Sicher ist auch: Die technischen Möglichkeiten scheinen bei weitem nicht ausgeschöpft, etwa wenn man an „Grief Tech“ und „Death Bots“ denkt. Das sind digital aus allen verfügbaren Quellen erschaffene Avatare von Menschen, mit denen Hinterbliebene auch nach dem Tod ihres oder ihrer Liebsten virtuell kommunizieren können.
Justin Harrison, der Gründer der amerikanischen Grief-Tech-Firma „You, Only Virtual“, habe auf diese Art weiter Kontakt mit seiner verstorbenen Mutter, erzählt er: „The definition of death is you are gone forever, but my mum is still there“ – die Definition von Tod sei, für immer verschwunden zu sein, aber seine Mum sei immer noch da. Ein anderer Anbieter (Mindbank.ai) erstellt, rechtzeitig zu Lebzeiten, einen digitalen Zwilling des jeweiligen Auftraggebers, der später die Reise in die Ewigkeit der Kommunikation mit den Liebsten antreten kann. Werbemotto: „The next personal computer is you“, der nächste Computer sei man selbst. In China ist das Grief-Tech-Genre ebenfalls sehr populär. So bereitet dort die Firma Super Brain digitale Avatare für Familien auf, die Angehörige verloren haben.
Wenn KI nun auch schon Longevity herstellt, ewiges Leben für jeden geneigte Nutzer, ist es umso wichtiger, wie die Menschen, gerade die sich einsam fühlenden, mit all den künstlichen Freunden umgehen. Experte Muldoon hat ein paar griffige Regeln aufgestellt, und die griffigste von ihnen appelliert an die persönliche Vorsicht: „Don‘t tell AI anything you would not tell the world“ – vertraue der KI nicht irgendetwas an, das du nicht auch anderen Menschen anvertrauen würdest.
Daran muss man sich im Rausch der Liebesmaschinen nur noch erinnern.

