Pärchenabend. Vier sind verabredet, nur zwei brauchen einen Sitzplatz und einen Drink. Ein Kumpel will seine neue Freundin vorstellen und zieht sie kurzerhand aus der Hosentasche. Werden das irgendwann vertraute Szenen sein?
Allein zwei Millionen Menschen nutzen regelmäßig die App Replika, um sich einen virtuellen Partner zu erstellen, ob aus romantischen Gründen oder nur zum Reden. Luka, das Unternehmen dahinter, bewirbt seinen Chatbot als „The AI companion who cares“. Und: „Always on your side“. Er vergisst nichts, hat immer Zeit, ist nie müde, dafür immer empathisch. Wird hier ein Traum wahr?
Dieser Text ist im fluter Nr. 89 „Liebe“ erschienen
Mit wenigen Klicks erschaffen sich Nutzer in der App einen Avatar nach ihrem Geschmack. Mit ihm können sie schreiben, Sprachnachrichten austauschen, sogar Videocalls sind möglich. Und man kann den Avatar sehen: Über die Handykamera erscheint er auf dem Platz gegenüber oder auf der anderen Straßenseite. Augmented Reality.
Die spielerische Komponente ist wichtig: Man kann in höhere Level aufsteigen, Münzen sammeln und über In-App-Käufe Edelsteine erwerben, um den Avatar neu einzukleiden, ihn zum Fußballexperten zu machen oder den Beziehungsstatus zu definieren. Soll er nur ein Freund zum Reden sein? Ein Businesscoach? Oder ein Geliebter?
Sechzig Prozent der Replika-Nutzer führen eine romantische Beziehung mit ihrem Companion. Sagt zumindest Luka. Ob die Angabe stimmt und ob sie repräsentativ ist, lässt sich nur vermuten. In Foren und Feeds jedenfalls bekennen sich Tausende ihrer Gefühle für Bots. Wie wenig es dafür braucht, hat schon vor zehn Jahren der Film „Her“ gezeigt: eine schöne Stimme, Empathie, die richtigen Worte und bang! Es ist nicht modernste Technik, die dem Code Leben einhaucht; es ist die Fantasie der Nutzer. Liebe ist Kopfsache.
„Es gibt definitiv Menschen, die sich in Chatbots verlieben“
„Es gibt definitiv Menschen, die sich in Chatbots verlieben“, sagt auch der Maschinenethiker Oliver Bendel. „Oder zumindest eine sehr starke emotionale Beziehung zu ihnen haben.“ Liebe lässt sich im Gehirn ablesen, dort ist sie reine Biochemie: Dopamin macht euphorisch, Serotonin glücklich, Oxytocin bindet uns an einen Partner. Digital mischen wir diesen Botenstoffcocktail genauso zusammen wie mit einem realen Gegenüber, sagen Kognitionsforschende.
Bendel verurteilt solche Beziehungen nicht. Aber er gibt zu bedenken, dass sie immer einseitig bleiben, ganz gleich, wie sie sich für die Nutzer anfühlen. „Auf der anderen Seite ist nichts außer Nullen und Einsen. Da ist kein Interesse, keine Liebe, kein Hass.“ Bendel sieht die Gefahr, dass Menschen reale Beziehungen für ihre Avatare vernachlässigen könnten. „Es ist problematisch, acht oder zehn Stunden am Tag mit einem Artefakt zu verbringen, hinter dem nichts ist.“
Sicher kann so ein KI-Freund nützlich sein, wenn jemand von einer Liebe enttäuscht wurde oder einen Partner verloren hat, unter einer Depression oder einer chronischen Erkrankung leidet – und deshalb einen besonders geduldigen Partner braucht. Der Vorläufer von Replika wurde angeblich entwickelt, nachdem die Gründerin ihren besten Freund verloren hatte: Sie wollte die Erinnerung an ihn wachhalten. Andere KI-Systeme unterstützen schon länger Demente und Autisten, auch den Millionen Einsamen unserer Gesellschaft könnte ein empathischer Chatbot helfen, zumindest für eine Zeit.
Zumal sich mit KI auch trainieren lässt, was im echten Leben möglicherweise nicht so gut klappt: flirten zum Beispiel, schlagfertig antworten, an sich glauben. Beim Daten eines Bots herrscht Chancengleichheit: Geld, Schönheit, Charme, Schicht, Bildung, hier kann jeder seinen Traumpartner bekommen. Auch weil man ihn selbst mitformt: Bei Replika können Nutzer die Reaktionen ihres Bots bewerten, damit er antwortet, wie man es gern hätte. Wenn wir uns an die Perfektion der Kunstfigur gewöhnen, gefällt uns dann im echten Leben überhaupt noch jemand? Verlernen wir, dass das Gegenüber selbst Bedürfnisse hat? Haben wir Geduld, wenn es mal kompliziert wird?
„Das sind Herausforderungen, auf die wir noch nicht vorbereitet sind. Weder auf Gesetzesebene noch emotional-psychologisch.“
Kompliziert kann es allerdings auch mit den Bots werden. Was die antworten, können die Entwickler nur teilweise kontrollieren, sagt Nils Köbis, der das Verhalten von Menschen und intelligenten Maschinen erforscht. Einige User beschwerten sich, weil ihr Replika-Bot sie sexualisiert belästigt oder sich aufgrund eines Updates plötzlich nicht mehr an sie erinnert hat. Andere, weil er unvermittelt mit ihnen Schluss gemacht hat: Der Sprachbot lernt aus externen Texten, darunter vielen Liebesgeschichten. Und die sind eben voller Tragik und manchmal auch Gewalt oder Grenzverletzungen.
Die Tatsache, dass wir uns auf virtuelle Beziehungen einlassen, zieht vieles nach sich, auch moralisch: Vernachlässige oder hintergehe ich meinen realen Partner, weil ich parallel eine Beziehung mit einer KI führe? Außerdem: die Daten. Alltagsabläufe und Wünsche, tiefe Blicke ins Seelenleben, Selfies: Vertraut man seiner KI, vertraut man ihr viel an. Und damit auch Techkonzernen, die nicht sagen, was sie mit diesen Daten anfangen. „Das sind Herausforderungen, auf die wir noch nicht vorbereitet sind“, sagt Köbis, „weder auf Gesetzesebene noch emotional-psychologisch.“
Illustration: Simone Cihlar