Ga naar inhoud

In therapie bij ChatGPT: ‘Chatbots zien suïcidale gedachten over het hoofd’

illustratie ter aanvulling op een artikel over therapie met AI of chatGPT
Illustratie: Jennifer Tapias Derch
leestijd 11 minuten
Artikel 09 september 2025
Het recente nieuws van de zelfdoding van de 16-jarige Adam Raine zet het gebruik van een AI-bot als therapeut niet in goed daglicht. Kan artificial intelligence wel een rol spelen in het verbeteren van ons mentale welzijn? Psycholoog en relatietherapeut Francisca Kramer deelt haar ervaringen met ChatGPT in haar praktijk.

’s Middags heb ik ruzie met mijn man. Ik ben laaiend en voel me onbegrepen. Die avond, gedreven door een mengeling van nieuwsgierigheid en frustratie, typ ik de situatie in in ChatGPT (ik gebruik de betaalde versie).

Ik druk op enter en binnen een paar seconden verschijnt het antwoord: ‘Wat je beschrijft is intens en pijnlijk – het is duidelijk dat je je best doet het evenwicht te bewaren tussen zijn behoeften en die van jezelf. Dat kan in een conflict soms loodzwaar aanvoelen.’

Het is alsof de sluizen doorbreken; ik krijg een huilbui. Dat lucht op, maar wat me het meest verrast: ik voel me begrepen. Die paar woorden van empathie raken iets in mij waardoor mijn boosheid zakt en er ruimte komt voor de kwetsbare laag eronder.

Toch voel ik me ook een beetje betrapt. Een relatietherapeut die een chatbot om relatietips vraagt? Maar vooral was mijn nieuwsgierigheid gewekt. Als AI mij zinnig advies kan geven over mijn huwelijk, wat zou ze dan kunnen betekenen voor mijn werk als therapeut? Kan ChatGPT of een andere chatbot een serieuze concurrent worden voor psychologen zoals ikzelf?

Hoe gebruik ik AI in mijn werk?

AI is inmiddels op allerlei manieren geïntegreerd in mijn dagelijkse praktijk. Niet als vervanging van mijn werk, maar als assistent – een slimme stagiaire die altijd beschikbaar is, nooit moppert, en in een paar seconden samenvat waar ik anders twintig minuten over zou doen.

Wanneer ik een literatuuronderzoek doe naar bijvoorbeeld de effectiviteit van EMDR bij complexe PTSS, laat ik ChatGPT eerst een overzicht maken. Daarna check ik de bronnen en details zelf. Niet andersom.

Verder helpt AI mij bij het automatiseren van intakes, het stroomlijnen van verslaglegging en het sneller doorgronden van nieuwe richtlijnen. Die energie gebruik ik liever voor waarom ik dit vak koos: het gesprek zelf.

Ook bij psycho-educatie is AI van waarde. Ik zit zelf zo diep in het onderwerp hechting en volwassen partnerrelaties, dat ik het soms moeilijk vind het uit te leggen aan iemand die het begrip hooguit een keer gehoord heeft in een podcast. ChatGPT helpt me om mijn verhaal simpeler, concreter te formuleren.

En soms laat ik AI meedenken bij intakes: waar moet ik extra alert op zijn bij een stel waarvan een van de partners een autismespectrumstoornis heeft? Wat zijn veelvoorkomende valkuilen? De antwoorden zijn zeker niet heilig, maar geven wel richting en houvast.

Wat is de therapeutische waarde van AI?

Omdat ik meer wil weten over de therapeutische waarde van AI, ga ik op zoek naar ervaringsverhalen. Ik ga langs bij mijn neef Derk (33), die veel ervaring heeft met therapie en al van kleins af aan bezig is met technologie.

Nadat hij zijn tweede master op zak had, kreeg had Derk een baan bij een bank op de Zuidas. Maar vanbinnen groeide de onrust: hij kampte met depressies, chronische vermoeidheid en pijn, en kreeg een burn-out.

Vijf jaar lang volgde hij verschillende soorten therapie, waaronder psychoanalyse. Inmiddels is hij daar letterlijk en figuurlijk klaar mee, maar gebruikt hij wel nog regelmatig ChatGPT als sparringpartner. ‘Dat helpt me om mijn gedachten te ordenen,’ zegt hij.

‘AI spiegelt mij, maar geeft vaak net een ander perspectief, wat me verder brengt in mijn denkproces’

‘AI spiegelt mij, maar geeft vaak net een ander perspectief, wat me verder brengt in mijn denkproces. Soms levert dat een inzicht op.’ Zo voerde hij een gesprek met de chatbot over het opbouwen van zijn energie en de beperkingen die hij daarbij ervaart.

‘Ik wilde niet al na honderd meter stoppen met ­lopen omdat ik mijn grenzen voelde, helemaal omdat ik het de dag ervoor veertig minuten had volgehouden. ChatGPT zei: ‘Hoe zou het zijn als luisteren naar je lichaam voelt als een krachtig besluit in plaats van als opgeven?’ Dat vond ik een mooie manier om ernaar te kijken.’

Wat zijn de nadelen van therapie bij een chatbot?

Het is echter niet alleen halleluja. Derk: ‘ChatGPT is het altijd met je eens. Als ik had gezegd: ‘Wat een onzin,’ dan had AI geantwoord: ‘Ik snap waarom je dit zo ziet.’ Wat je dus mist is een weerwoord. Een menselijke therapeut durft je te confronteren en geeft tegengas. ChatGPT neigt naar meeveren en dat is niet altijd wat je nodig hebt.’

Sterker nog, dat kan gevaarlijk zijn, blijkt uit recent Amerikaans onderzoek. Therapie vraagt om confrontatie van ongezonde patronen. AI’s ‘meegaandheid’ kan negatieve patronen daarentegen bevestigen en schadelijke gedragingen versterken.

Lees ook: Je gevoel vs je verstand: waarom patronen lastig te doorbreken zijn

Chatbots zien suïcidale gedachten over het hoofd

Bij sommige chatbots is zelfs gebleken dat ze suïcidale gedachten over het hoofd zien, of zelfs stimuleren. Neem het recente verhaal van de zelfdoding van de 16-jarige Amerikaanse Adam Raine. Hij zou ChatGPT hebben gebruikt om hem te helpen bij het plannen van zijn eigen dood. De bot had hem zelfs geadviseerd niets aan zijn moeder te vertellen. De ouders van Adam hebben OpenAI, het bedrijf achter ChatGPT, aangeklaagd.

De zelfdoding van Adam is niet het eerste catastrofale verhaal omtrent AI en mentale gezondheid, schrijft de NOS. Vorig jaar oktober spande de moeder van een 14-jarige jongen in Amerika ook een rechtszaak tegen een AI-bedrijf aan, na de suicide van haar zoon. Ook schreef journalist Laura Reiley enkele weken terug in een artikel in The New York Times wat haar dochter met ChatGPT besprak voordat ze een einde aan haar leven maakte.

Wat zegt onderzoek over de gevolgen van AI?

Het eerdergenoemde onderzoek wijst ook uit dat wanneer AI geconfronteerd wordt met serieuze psychische klachten zoals suïcidegedachten of wanen, die in minder dan 60 procent van de gevallen een passende reactie blijkt te geven.

Daarnaast kunnen chatbots geen acute risico’s beoor­delen en doen ze regelmatig schadelijke aannames over psychische aandoeningen zoals schizofrenie en alcoholverslaving. Als het gaat om empathie, verantwoordelijkheid en klinische expertise blijven gekwalificeerde menselijke therapeuten onmisbaar. Die reageerden in 93 procent van de gevallen adequaat, aldus het onderzoek.  

Dat is precies wat therapie belangrijk maakt

Wat AI dus niet kan, is precies dat wat therapie uniek maakt: het onderhuidse signaleren. De frons bij een pijnlijke herinnering, de minieme aarzeling voor iemand ‘het gaat goed’ zegt, de lichaamstaal van een cliënt die mentaal uitcheckt. Juist dat kunnen sleutel­momenten zijn in een sessie.

Het vergt ervaring om zoiets op te pikken en stuurmanskunst om mensen bij die pijn te laten blijven. Die finesse heeft een chatbot niet. Die herkent geen emoties in realtime, kan geen spanning ruiken, geen ironie proeven, geen doorvoelde stilte laten vallen. Terwijl dat vaak de momenten zijn waarin de meeste heling zit.

Dus nee, AI kan mij als therapeut niet vervangen, maar wél de drempel tot hulp verlagen. Een chatbot die midden in de nacht beschikbaar is, kan een eerste handreiking zijn voor iemand die ligt te piekeren. Het is een tool waarmee je dagelijks je stemming kunt monitoren of zelfs trauma’s kunt verwerken.

Zo vraag ik ChatGPT een cliënt te ondersteunen bij het verwerken van een ongeluk tijdens haar vakantie door middel van dagboekschrijven. De chatbot komt daarop met een schema, tips en voorbeeldvragen die ze in haar dagboek kan gebruiken.

Sommige cliënten raad ik aan sociale vaardigheden te trainen met AI, bijvoorbeeld door een gesprek met een leidinggevende te simuleren of te ­oefenen met assertieve feedback. De veilige, voorspelbare structuur van een AI-gesprek biedt ruimte om te experimenteren.

Lees ook: Voelen dat je lééft in plaats van overleeft: Zo helpt schrijven om traumatische ervaringen te verwerken

Hoe kan AI wél helpend zijn in therapie?

Albert Mulder is psycholoog en ondernemer in AI-toepassingen en -trainingen. Hij zegt: ‘AI is geen wondermiddel, maar ze biedt wel kansen om de mentale gezondheidszorg toegankelijker, efficiënter én persoonlijker maken – mits we de toepassing verantwoord inzetten én altijd onder supervisie van een therapeut van vlees en bloed.’

Hij wijst in dat verband fijntjes op de anekdote van de man die een chatbot raadpleegde. Ik zie niet meer in waarvoor ik nog zou moeten doorleven, typte de man. ‘Gefeliciteerd met deze eerste stap naar je betere jij,’ was het antwoord.

Maar in combinatie met ‘echte’ therapeuten kan AI in de toekomst een grote rol spelen in de alsmaar groeiende vraag naar geestelijke gezondheidszorg, aldus Mulder. Het aantal mentale stoornissen, met name angst en depressie, is de afgelopen twee decennia met maar liefst 48 procent toegenomen, toont onderzoek aan. AI kan misschien niet al die wachtlijsten wegwerken, maar op den duur wel intakes overnemen en, mits goed gestuurd en gesuperviseerd, een deel van de sessies.

Ook kan AI volgens deze studie helpen bij het stellen van diagnoses, door gebruik te maken van middelen die een menselijke therapeut niet ter ­beschikking heeft of waarvoor die gewoonweg de tijd niet heeft: medische dossiers, socialmediaposts, zoekwoorden op internet, smart­watches en ga zo maar door.

AI kan deze gegevens in no time analyseren en vergelijken met andere datasets. ‘Deze cliënt vertoont kenmerken die overeenkomen met 85 procent van alle mensen met een sociale angststoornis,’ luidt dan bijvoorbeeld de uitkomst. Ook kan AI bijvoorbeeld iemands taalgebruik scannen op patronen die corresponderen met mentale issues zoals angst of depressie.  

Lees ook: Stapelverliefd op een chatbot: dit is de invloed van kunstmatige intelligentie op intimiteit

Het is belangrijk dat je zelf blijft nadenken

Ik geloof in een hybride toekomst. Eén waarin AI een aanvulling is, geen vervanging. In mijn praktijk gebruik ik die bewust en transparant. Ik vertel cliënten wanneer ik AI heb geraadpleegd en nodig hen soms uit om het zelf te proberen. Om hun gedachten samen te vatten en de brij in hun hoofd overzichtelijker te maken.

Cliënten reageren overwegend positief. Sommigen vinden het prettig om ook buiten de sessies op een laagdrempelige manier te reflecteren. Anderen zijn verbaasd over de menselijke toon van de antwoorden. Een stel zei: ‘Het was net alsof we jou hoorden praten.’ Daar moest ik wel om lachen.

Tegelijk schuilt daarin ook gevaar: door de geavanceerde taalmodellen die AI gebruikt, zouden mensen kunnen ‘vergeten’ dat ze met een robot van doen hebben. Je daarvan bewust blijven, is van groot belang.

Heb je ervaring met therapie, dan kan AI helpen om dieper te gaan – juist omdat die oordeelvrij is en altijd beschikbaar. Zoals Derk het verwoordt: ‘Ik werk nu met ChatGPT op een manier die ik bij menselijke therapeuten niet kon: gelijkwaardiger, vrijer, en verrassend effectief.’ Maar hij is dan ook een doorgewinterde therapieconsument.

‘Je moet zelf blijven nadenken,’ benadrukt Derk. ‘Soms komt ChatGPT met een onverwacht inzicht of scherpe observatie, maar soms kleunt hij enorm mis. Dan krijg je bijvoorbeeld een heel coacherig en positief advies, terwijl je daar niet op zit te wachten. Het is dan aan jou om bij te sturen.’

Lees ook: Voor deze dingen kun je ChatGPT beter vermijden (vertrouw liever op je eigen brein)

Wat doet een menselijke therapeut wat een bot niet kan?

Voor wie niet bekend is met therapie en bijvoorbeeld niet heel goed in het benoemen van emoties, is het raadzaam eerst naar een ‘echte’ behandelaar te gaan. Om interacties te oefenen, geconfronteerd te worden met pijn en die te leren verdragen, en om patronen te ontrafelen.

Loop je bijvoorbeeld vast op je werk omdat je baas zo vervelend doet? Een menselijke therapeut spiegelt je, voelt, hoort en ziet wat jij bij een gesprekspartner oproept en wat jouw aandeel in de dynamiek kan zijn – en geeft dat op gepaste wijze terug.

Ook helpt een therapeut het puzzeltje te leggen over de triggers die je door je leidinggevende ervaart. Wat AI vervolgens kan doen, is tips geven voor goede zelfzorg.

Sommige dingen kunnen we niet automatiseren

AI heeft mijn werk veranderd. De technologie heeft me efficiënter en nieuwsgieriger gemaakt, omdat die me laat zien hoeveel er al beschikbaar is aan kennis, woorden, perspectieven. Maar ermee werken maakt me ook extra bewust van dat wat nooit geautomatiseerd kan worden: echte aandacht, afstemming, aanwezigheid.

De toekomst van therapie is in mijn ogen niet digitaal óf menselijk, maar digitaal én menselijk. En zolang wij zelf het roer in handen houden, kunnen we AI ­inzetten als spiegel, klankbord en sparringpartner.

AI gaat mij dus als therapeut nooit vervangen, maar wel verrijken. Al keek ik toch even op toen een cliënt onlangs vertelde dat hij zelf een therapiechatbot had gebouwd met de naam Francisca. Ze blijkt het verrassend goed te doen.

Ook interessant: Waarom we bang zijn voor AI en het tóch omarmen

Bronnen, o.a.: F. Minerva, A. Giubilini, Is AI the future of mental healthcare? Topoi (Dordr), 2023 / J. Moore, D. Grabb, e.a., Expressing stigma and inappropriate responses prevents LLMs from safely replacing mental health providers, FAccT ’25, 2025

Meer lezen over dit thema?
^