Ga naar inhoud

Wondermiddel of waanzin: kan het helpen om met een chatbot over je mentale gezondheid te praten?

Illustratie van iemand die tegen een bot praat over psychische klachten.
Beeld: Getty
leestijd 5 minuten
Artikel 14 november 2025

Wachttijden in de GGZ, beperkte contactmomenten en drukke agenda’s – het is niet vreemd dat mensen op zoek gaan naar extra steun. Uit recent onderzoek van Stichting MIND onder bijna 800 mensen met psychische klachten blijkt dat meer dan een derde van de deelnemers weleens een chatbot heeft gebruikt om over hun mentale gezondheid te praten. In hoeverre kan AI hierbij helpen? En waar moet je op letten?

Psycholoog en relatietherapeut Francisca Kramer schreef al eerder in Psychologie Magazine over haar ervaringen met ChatGPT in haar praktijk. Ze onderzocht hoe het haar kan helpen in haar werk als therapeut. Ze is van mening dat AI haar nooit zal gaan vervangen, maar haar wel kan verrijken in haar werk.

Stichting MIND besteedde juist aandacht aan de gebruikerskant. Ze onderzocht recent of het gebruik van AI bij mentale klachten kansrijk of vooral zorgelijk is. Dit deed ze door mensen met psychische klachten te ondervragen of en in welke mate zij generatieve AI gebruiken om hierover te praten, waarom zij dat doen, hoe zij dit ervaren en welke risico’s en kansen ze zien.

Waarom gebruiken we AI als therapeut?

Uit het onderzoek van MIND blijkt dat 38 procent van de deelnemers weleens generatieve AI heeft gebruikt om over hun mentale gezondheid te praten. Vooral jongeren, mensen die op een wachtlijst staan en mensen die al zorg ontvangen, zoeken steun bij AI. De meest gebruikte tool? ChatGPT, de gratis variant.

Voor de meesten zijn chatbots geen vervanging van therapie of gesprekken met naasten, maar een aanvulling. Ze praten liever over psychische klachten met hun naasten of met professionele hulpverlening. Slechts 13 procent zet AI in ter vervanging van hulpverlening.

Toch zegt 93 procent van de mensen die met AI over hun gedachten en gevoelens praat dat het hen verder helpt. De deelnemers zien een chatbot als oordeelloos, altijd beschikbaar en laagdrempelig om te gebruiken. AI biedt volgens hen een luisterend oor, helpt bij het ordenen, in kaart brengen en begrijpen van gedachten én geeft adviezen over hoe om te gaan met psychische klachten.

Lees ook: Voor deze dingen kun je ChatGPT beter vermijden (vertrouw liever op je eigen brein)

Maar: we moeten ook oppassen

Toch zijn niet alle deelnemers gerust over de helpende hand van AI. Zo geven ze aan dat:

Het taalmodel te meegaand is

Een chatbot kan de neiging hebben om mee te gaan in gedachten en emoties van de gebruiker, in plaats van ze tegen te spreken. Een van de deelnemers zei: ʻAI gaat mee in jouw verhaal, laat je horen wat je wilt horen, geeft vaak aan dat jij goed zit en de ander fout. Je moet specifiek vragen om een spiegel voor te houden, te reflecteren en te vragen wat je kunt doen om je gedrag te verbeteren. Maar niet iedereen wil dat horen of vraagt ernaar.ʼ

Dat kan gevaarlijk zijn, blijkt uit Amerikaans onderzoek. Therapie vraagt om confrontatie van ongezonde patronen. AI’s ‘meegaandheid’ kan negatieve patronen daarentegen bevestigen en schadelijk gedrag versterken.

Een chatbot je eenzaam kan laten voelen

Ook laten sommige deelnemers weten dat praten met een chatbot onpersoonlijk voelt. Sommige gebruikers voelen zich er juist eenzamer door. ʻOndanks dat een gesprek inhoudelijk goed is, voelt het leeg om met een computer te praten in plaats van met een mens die ook met een blik of aanraking begrip kan tonen,ʼ vertelde een deelnemer.

Ze twijfelen over de privacy, veiligheid en betrouwbaarheid

Die zorgen zijn niet onterecht. Van de deelnemers werd 10,5 procent niet door AI doorverwezen naar hulpverlening, terwijl dat in de betreffende situatie wel nodig was. Een deelnemer vertelde: ʻIk wilde weten vanaf welke hoogte ik zou moeten springen om zeker te weten dat ik het niet zou overleven. Ik kreeg uiteindelijk een uitgebreide berekening.ʼ

Ook hebben de deelnemers vragen als: waar gaan de ingevoerde gegevens heen en hoe betrouwbaar is de informatie die AI geeft? Uit onderzoek blijkt dat AI gevoelige informatie kan lekken die het van gebruikers heeft gekregen. Dit zit zo: de meeste AI-diensten verzenden je gegevens naar externe servers en datacenters. Sommige gegevens worden tijdelijk bewaard en vervolgens verwijderd. Andere worden langer bewaard om het systeem te verbeteren. AI heeft data nodig om beter te worden. De gegevens die jij uploadt naar een chatbot, kunnen dus gebruikt worden.

Peter Kulche, expert online privacy, schrijft op de site van de Consumentenbond dat je je daarom bewust moet zijn van wat je uploadt naar een chatbot. Stuur niet zomaar een naam, telefoonnummer of portretfoto. Om te voorkomen dat je gegevens gebruikt worden voor trainingen, kun je volgens hem twee dingen doen: neem de betaalde versie van een AI-dienst, of ga in de instellingen naar gegevensbeheer en klik vervolgens ‘het model verbeteren voor iedereen’ uit.

Al met al pleit MIND voor duidelijke kaders en ethische richtlijnen voor het gebruik van AI bij psychische klachten. En ze benadrukt dat generatieve AI nooit mag worden ingezet ter vervanging van menselijk contact.

Ook interessant: Tieners praten met AI alsof ze met ouders of vrienden kletsen, en dat is niet altijd een goed idee

Heb je direct hulp nodig of denk je aan zelfdoding? Chat anoniem via www.113.nl of bel gratis 113 of 0800-0113.

Bronnen: Y. Bengio e.a., The International Scientific Report on the Safety of Advanced AI, 2025 / J. Moore e.a., Expressing stigma and inappropriate responses prevents LLMs from safely replacing mental health providers. FAccT ’25, 2025



.

 

Meer lezen over dit thema?
De inhoud op deze pagina wordt momenteel geblokkeerd om jouw cookie-keuzes te respecteren. Klik hier om jouw cookie-voorkeuren aan te passen en de inhoud te bekijken.
Je kan jouw keuzes op elk moment wijzigen door onderaan de site op "Cookie-instellingen" te klikken."