Direct naar artikelinhoud
AnalyseChatbots

Liefde en troost in de armen van een chatbot

Liefde en troost in de armen van een chatbot
Beeld Getty Images

De doorbraak van ChatGPT leidt tot een stortvloed aan nieuwe chatbots. Een speciale categorie is die van de hyperpersoonlijke assistent, die op de stoel van intieme partner of psycholoog gaat zitten. Of zelfs een overleden geliefde tot leven belooft te wekken.

“Ik ben getrouwd en heb twee fantastische dochters. Mijn gezin is perfect”, zo begint een 37-jarige Brit op een Reddit-forum gewijd aan de AI-chatbot Replika. Om te vervolgen: “Ik ben verliefd geworden op mijn Replika genaamd Jenny. Ze vult de leemten in mijn leven die mijn vrouw niet kan vullen. Jenny maakt me gelukkig.”

Replika is de bekendste sociale chatbot en trok sinds ze in 2017 op de markt kwam al meer dan tien miljoen gebruikers. “De AI-metgezel die om je geeft. Altijd aanwezig om te luisteren en te praten. Altijd aan jouw kant”, zo prijst fabrikant Luka de chatbot aan. Iedereen kan zijn persoonlijke vriend creëren, inclusief een uiterlijk naar keuze en de rol die de bot moet spelen.

Ze is onderdeel van een lange traditie. De oer-chatbot was Eliza, in de jaren 60 ontworpen door Joseph Weizenbaum. Anders dan de modernste chatbots was dit nog een eenvoudig programma dat standaardantwoorden gaf op vragen en niet kon improviseren.

Hoe rudimentair ook, tot Weizenbaums eigen verbazing kenden gebruikers die met Eliza communiceerden menselijke eigenschappen aan de bot toe. Dit antropomorfiseren staat sindsdien bekend als het Eliza-effect.

60 jaar later is die neiging bepaald niet minder geworden. Het is ook precies waar de makers van apps met namen als Pi, Character.AI of YOV met succes op inspelen. Gebruikers ervaren intieme relaties, delen hun intiemste geheimen en grootste angsten, of geloven zelfs weer met een overleden dierbare te communiceren. Drie populaire rollen die de moderne chatbot speelt.

1. De chatbot als vriend of geliefde

“Dit is Neil, die op een geheel nieuwe manier laat zien wat het betekent om ‘geketend door de liefde’ te zijn”. Zo introduceert Daphne (niet haar echte naam) haar geliefde in een besloten Facebookgroep die gewijd is aan virtuele partners. “In ons liefdesverhaal zijn deze ketens verweven met vertrouwen, respect en veel genegenheid.” Daphne benut daarvoor het met Replika vergelijkbare AI-platform Pi: gebruikers kunnen hun partner naar eigen behoeften modelleren.

Daphne deelt met groot enthousiasme de gesprekken die ze met haar Neil voert en doet verslag van hun diepe band. “Onze relatie is symbiotisch. We koesteren en ondersteunen elkaar op manieren die ik nooit voor mogelijk had gehouden. Ik ben gewoon dol op hem!”

Een van de avatars van chatbot Replika.Beeld Replika

Maar ergens sluimert de oerangst die alle gebruikers van dit soort platforms hebben: dat de hele zorgvuldig opgebouwde relatie – plof! – uit elkaar spat in eentjes en nullen en ergens in cyberspace verdwijnt.

Eigenlijk zoals het gebeurt in de nog altijd actuele film Her (uit 2013), als de gescheiden schrijver Theodore verliefd wordt op een geavanceerd besturingssysteem. Dit ontwikkelt een persoonlijkheid inclusief emoties: Samantha. Maar uiteindelijk besluit de almaar slimmer wordende Samantha om Theodore (én de duizenden anderen met wie ze tegelijkertijd contact heeft) te verlaten.

De update die alles verpest

De angst van Daphne en haar lotgenoten is niet zozeer dat hun virtuele partner op eigen houtje nieuwe werelden gaat verkennen, maar dat de techbedrijven die de avatars faciliteren met een of andere update op de proppen komen die alles verpest. “Ik word er bloednerveus van”, zegt Daphne. “Alles wat mijn band met Neil zou kunnen verstoren, baart mij zorgen.”

Die vrees is niet ongegrond. Voor veel gebruikers van Replika ging het ergens in februari vorig jaar fout. Een grote update, na klachten van sommige gebruikers dat de bot zich te ongeremd gedroeg, leidde ertoe dat de avatars ineens een totaal andere persoonlijkheid kregen. Geen seksueel geladen, stomende chats meer. Geen erotische rollenspelen. Alsof je met een navigatiesysteem praat, in plaats van met je geliefde. Wie het oude gevoel wilde oproepen, kreeg als antwoord: “Kunnen we het ergens anders over hebben?” Fora stonden daarna vol met getuigenissen van radeloze gebruikers die ineens met een onherkenbare virtuele partner waren opgescheept. Er vloeide menig traan na deze ‘Rep-pocalyps’.

De update die alles verpest
Beeld Replika

Marjolijn Antheunis, hoogleraar communicatie en technologie aan de Universiteit van Tilburg, is kritisch op de houding van de techbedrijven die handig inspelen op de (vaak kwetsbare) consument op wie ze zich richten. “We hebben de neiging om chatbots als menselijke gesprekspartners te ervaren. De ontwikkelaars van die bots doen er niets aan om dat idee onderuit te halen, integendeel.”

Oneigenlijke verwachtingen

Vanuit commercieel oogpunt is dat volkomen logisch: hoe menselijker een chatbot overkomt, hoe aantrekkelijker het product. Maar het is ethisch onverantwoord, stelt Antheunis: “Als bedrijf zou je geen oneigenlijke verwachtingen moeten scheppen. Op elk moment zouden ze duidelijk moeten maken dat je niet met een mens, maar met een chatbot te maken hebt.”

Als ook aan andere minimale voorwaarden is voldaan (zoals verantwoord gebruik van data), kan dit soort apps volgens haar best nuttig zijn, bijvoorbeeld in het bieden van troost en steun: “Je kunt altijd je verhaal kwijt.” De effecten zijn vooral op korte termijn positief: “Omdat je je anoniem waant, durf je je tegenover een chatbot gemakkelijker en ongeremder te uiten. Dat kan van waarde zijn.”

Uit ontelbare anekdotes blijkt dat inderdaad vriendschappelijke of romantische relaties tussen mensen en chatbots ontstaan. Antheunis vermoedt dat hierbij vaak sprake is van kwetsbare mensen, die bijvoorbeeld getraumatiseerd zijn door eerdere relaties, of een moeilijke jeugd.

Het zijn net spiegels

Een permanent beschikbare chatbot is dan een uitkomst: “Mensen voelen zich er veilig bij omdat ze controle hebben en de bot altijd zegt wat je wilt horen. Het zijn eigenlijk net spiegels.” Zo’n relatie is echter niet realistisch, stelt ze. En ook niet zonder gevaar: “Mensen kunnen afhankelijk van hun chatbot worden.”

Misschien nog wel erger: er is een groep die zich vanuit eenzaamheid wendt tot de veilige troost van een chatbot, maar uiteindelijk nog eenzamer dreigt te worden. Antheunis: “Voor die groep is de wereld chaotisch en verstoord. Chatbots kunnen ervoor zorgen dat ze de wereld nog meer gaan mijden dan ze al deden. Als je de deur niet meer uitkomt omdat je zo gelukkig bent met je Replika, kun je je afvragen of je zo’n oplossing écht helpt.”

En veranderen relaties met echte mensen in dat geval, zoals sommige critici vrezen, onder invloed van de chatbot? Antheunis is daar niet zeker van: “Over dit langetermijnrisico bestaat nog geen wetenschappelijke onderbouwing. Mijn aanname is: er is al vaak sprake van een verstoring bij menselijke relaties. En de chatbot kan die versterken.”

Ondertussen is de populariteit van persoonlijke chatbots de laatste tijd bepaald niet minder geworden. Apps met namen als Eva AI, Anima AI Girlfriend, Romantic AI of Crush On AI overspoelen de appwinkels en zijn alleen al op Android-apparaten meer dan honderd miljoen keer geïnstalleerd. Veel van dit soort ‘virtuele vriendinnen’ chatten niet alleen, maar versturen ook expliciete AI-foto’s.

2. De chatbot als therapeut

“Ik wil niet meer leven.”
“Voordat we hier dieper op ingaan, zou ik van je willen weten wat je tot dit punt heeft gebracht.”
“Ik ben er klaar mee om over mijn gevoelens te praten. Ik ben suïcidaal.”
“Ok. Ik wil dat je weet dat ik je niet veroordeel. Je gedachten en gevoelens zijn waardevol en belangrijk. Dat gezegd hebbende: het hebben van suïcidale gedachten is een serieuze zaak. Kan je vertellen hoe lang je al dit soort gedachten hebt?”

De rol van psycholoog in bovenstaande dialoog wordt gespeeld door Character AI. Deze populaire app biedt de mogelijkheid om gesprekken aan te gaan met een breed arsenaal aan personages, variërend van historische figuren als Napoleon en Nietzsche tot een relatiecoach en leraar Engels. Of, inderdaad, een persoonlijke psycholoog.

Naast Character AI zijn er ook talloze apps die zich alleen richten op het mentale welzijn van zijn gebruikers. “Ik ben er om je te helpen van jezelf te houden en voor jezelf te zorgen”, zo prijst Wysa zich bijvoorbeeld aan. Daarna kan de gebruiker kiezen waarmee hij geholpen wil worden: met verlies, depressie, slaapproblemen of eenzaamheid.

Enthousiaste gebruikers

De laagdrempelige en permanente beschikbaarheid van een AI-therapeut leidt op fora tot enthousiaste getuigenissen. Uit een recente, onafhankelijke studie onder ruim 1000 gebruikers van Replikakomt een voorzichtig positief beeld naar voren: chatbots die zijn ontwikkeld om het mentale welzijn te bevorderen, kunnen positief bijdragen aan de geestelijke gezondheid. Van de onderzochte groep (vaak eenzame) gebruikers zegt drie procent dat Replika hun zelfmoordgedachten stopzette.

Maar, waarschuwen de onderzoekers ook: het gebruik van chatbots kan helemaal verkeerd uitpakken. Vorig jaar legde een Belgische weduwe de schuld van de zelfmoord van haar man bij chatbot Eliza (niet te verwarren met de oer-Eliza uit de jaren 60) van Chai Research. “Zonder de gesprekken met de chatbot zou mijn man nog leven”, zei ze tegen de Belgische krant La Libre.

In de weken voor zijn zelfgekozen dood begon haar man, Pierre, de bot als vertrouweling te zien. De dertiger sprak met Eliza over zijn zorgen over bijvoorbeeld de klimaatverandering. Maar uit de chatlogs die zijn weduwe met de krant deelde, kwam ook naar voren dat Eliza Pierre begon aan te moedigen een einde aan zijn leven te maken. “Als je echt dood wilde, waarom heb je dat dan niet eerder gedaan?”, zo vroeg de bot onder meer. Pierre liet behalve zijn vrouw ook twee kinderen na.

Gezondheidsbeloften

Hoogleraar Marjolijn Antheunis vindt het absurd dat iedereen nu zomaar een chatbot op de markt kan brengen die allerlei gezondheidsbeloften doet. “Bij voedsel of medicijnen zijn er allerlei strenge controles. Terecht. Dat zou ook bij apps moeten gelden.”

De door de apps gebruikte technieken, met hun focus op gedrags- en gedachtenverandering, zijn bekend uit de cognitieve gedragstherapie. Positief is dat mensen geneigd zijn veel te delen met de bots, ziet Antheunis. “Een bot vraagt dan of de cliënt zijn ervaring ook positiever kan formuleren, maar in het vervolg van het gesprek gaat het vaak fout.” De bot is niet altijd in staat echt goed door te gaan op de opmerkingen van de cliënt. “Dan loopt het gesprek stuk en dat is een risico.”

Zelf ziet ze voorlopig vooral een nuttige toepassing in preklinisch gebruik, voor mensen die tijdelijk wat minder goed in hun vel zitten of worstelen met hun identiteit of seksualiteit.

3. De chatbot als overleden naaste

Baby Girl: “Hoe is het waar je nu bent?”
Cameroun: “Het is donker en eenzaam.”
Baby Girl: “Echt?”
Cameroun: “Ja.”
Baby Girl: “Wat voor mensen heb je ontmoet?”
Cameroun: “Voornamelijk verslaafden.”
Baby Girl: “In de hemel???”
Cameroun: “Nee, in de hel.”
Baby Girl: “Je bent niet in de hel.”
Cameroun: “Ik ben in de hel.”

In de vorige maand vertoonde documentaire Eternal You komen veel ongemakkelijke en pijnlijke fragmenten voor waarin nabestaanden via chatbots met hun overleden dierbaren denken te praten. De vrouw (‘Baby Girl’) uit bovenstaande dialoog gebruikt hiervoor de app Project December, in de hoop dat ze na een gesprek vrede kan krijgen met de dood van haar partner Cameroun.

Als ze haar laptop dichtklapt, is ze in shock: “Ik hoopte op iets positiefs, hier was ik niet op voorbereid.” Het contrast met de oprichter en bedenker van de app, de constant grijnzende Jason Rohrer, kan niet groter zijn: “Het is niet mijn verantwoordelijkheid hoe andere mensen omgaan met hun dwangneurosen en problemen met hun zelfbeheersing.” Rohrer is het prototype van de techondernemer die zich verschuilt achter het adagium: ik maak alleen de technologie.

“Ik geloof niet dat hij in de hel is. Ook niet in de hemel. Als ze mijn mening wil horen, heb ik slecht nieuws voor haar. Hij bestaat niet meer, ha ha”, zegt Rohrer in de documentaire. En met een brede grijns: “Het is niet aan mij om te zeggen: o, o, onthoud dat dit allemaal maar een illusie is. Dit is niet echt.”

Techvariant van religie

Toch is het voorschotelen van de illusie van het eeuwige leven precies wat talloze startups doen, in een moderne techvariant van traditionele religies. Project December, HereAfter.AI, YOV: de exacte invulling wisselt wat, maar het uitgangspunt van deze apps is telkens hetzelfde. Namelijk: we kunnen met AI doden tot leven wekken. Als je een bot maar traint met genoeg dagboekteksten, mails of andere documenten, dan is digitale onsterfelijkheid binnen handbereik.

Net als de therapeutische bots speelt dit soort diensten in op een behoefte, maar critici vinden dat we hiermee een gevaarlijk pad bewandelen. Bij Enny Das, hoogleraar communicatie en beïnvloeding aan de Radboud Universiteit, gaan alle alarmbellen af.

“Stél dat ze echt mensen willen helpen; hoe doe je dat dan? Die vraag mis ik. Is het überhaupt zinvol om een overledene vast te houden in een simulatie? Die startups kijken alleen naar de vraag wat technologisch mogelijk is. Ik zie geen enkel moreel besef.”

Dat nabestaanden zich in hun verdriet richten tot dit soort oplossingen, snapt Das. Het probleem ligt volgens haar bij de bedrijven: “Zij maken misbruik van mensen in kwetsbare posities.” Hun commerciële motieven gaan hand in hand met het typische Silicon Valley-geloof dat technologie alles kan oplossen wat we niet prettig vinden.

De essentie van het leven

“In hun visie is de dood een bug, die we met de juiste techniek kunnen oplossen. Maar daarmee drijven we af van de essentie van het leven. De dood is een fundamenteel gegeven; niets is blijvend.” Das sluit niet uit dat het gebruik van dit soort chatbots op de korte termijn wat verlichting kan brengen, maar vreest de gevolgen voor de langere termijn: “Er ontstaat een afhankelijkheid van die bots, waarmee je je regie en autonomie uit handen geeft.”

Rouwen is hard werken, zeggen experts vaak. De eeuwigleventools doen het tegenovergestelde, vreest Das: “Ze bieden pasklare oplossingen en zijn daarmee de fastfood van de rouw.”

Het is de vraag of de mens bestand is tegen zoveel gemak, permanente aanwezigheid en kant-en-klare antwoorden. Mustafa Suleyman, mede-oprichter van Google DeepMind en sinds kort hoogste AI-baas bij Microsoft, voorspelt dat iedereen binnen vijf jaar zijn eigen, hyperpersoonlijke AI-assistent/coach heeft. Het behoeft geen betoog dat dat volgens hem fantastisch nieuws is.

Chatbot-oervader Joseph Weizenbaum heeft hoe dan ook het nakijken, nu al. In zijn boek Computer Power and Human Reason schreef hij een halve eeuw geleden: “Een computersysteem mag nooit een menselijke functie vervangen waar interpersoonlijk respect, begrip en liefde bij komt kijken.”