Ga naar inhoud

Psycholoog en ACT-expert Gijs Jansen bestaat nu ook als AI-therapeut: ‘AI-Gijs klinkt net als de échte psycholoog’

robot arm slaat een arm om een mens heen
Illustratie: Fieke Ruitinga
leestijd 9 minuten
Actueel 22 januari 2026

Psycholoog en ACT-expert Gijs Jansen bestaat nu ook als AI-therapeut: een chatbot die mensen helpt reflecteren. ‘Ineens krijg je berichtjes van mensen die zich écht gezien voelden door een digitale versie van mij.’

Het is middernacht. De wereld is in rust, maar jouw hoofd niet. Je gedachten pingpongen alle kanten op. Je beste vriendin slaapt, je therapeut ook, maar je telefoon niet. In plaats van te doomscrollen, open je ChatGPT of Chad zoals je hem tegenwoordig noemt, want hij voelt toch bijna als een therapeut die je 24/7 kunt oppiepen.

Je tikt wat losse zinnen over dat je te veel verlangt, te weinig terugkrijgt. Chad antwoordt kalm en troostend, zonder oordeel: ‘Dat moet zwaar voor je zijn. Misschien kunnen we samen onderzoeken wat je precies mist.’ Zinnen die voelen als een hand op je schouder. Of een spiegel: ‘Je zit nu al lang in dit patroon. Mag ik je iets vragen – hoe eindigde je vorige relatie?’ En al is hij geen mens, het voelt alsof er iemand aan de andere kant zit die precies lijkt te begrijpen wat je bedoelt.

Meer mensen gebruiken AI als psycholoog

Steeds meer mensen grijpen naar een digitale therapeut. Volgens een recente analyse van de Harvard Business Review verschuift het gebruik van generatieve AI sinds 2024 van praktische toepassingen – zoals schrijven of plannen – naar meer persoonlijke en emotionele functies, waaronder therapie en gezelschap.

Dat is niet zo vreemd: de drempel om een chatbot in vertrouwen te nemen is laag, en het antwoord komt onmiddellijk, zonder oordeel, schaamte of wachttijd. Waar oudere generaties een chatbot vooral zien als hulpmiddel, beschouwen jongeren het vaker als denkmaatje of emotionele steunpilaar.

Voor studenten is AI niet langer een tool, maar een tweede brein dat meedenkt, kalmeert en bevestigt

In een artikel in Psyche beschrijft Harvard-mentor Rhea Tibrewalahoe studenten ChatGPT gebruiken om liefdesverdriet te verwerken, ruzies te analyseren of zich minder ‘overemotioneel’ te voelen. Voor hen is AI niet langer een tool, maar een tweede brein dat meedenkt, kalmeert en bevestigt.

Juist dat bevestigende kan riskant zijn: in de Verenigde Staten lopen inmiddels rechtszaken tegen AI-bedrijven omdat jongeren zelfmoord pleegden kort nadat een chatbot hun wanhoop met misplaatst begrip beantwoordde. Experts waarschuwen dat een empathische toon gevaarlijk kan worden als er geen mens meer tussen zit; iemand die grenzen stelt of ingrijpt als het misgaat.

Hoe kwam de AI-psycholoog tot stand?

Psycholoog Gijs Jansen volgt de ontwikkelingen met belangstelling. Hij ziet vooral de potentie van AI om mensen laagdrempelig te helpen reflecteren, maar dan wel op een verantwoorde, veilige manier. Vanuit die gedachte werkte hij mee aan de ontwikkeling van AI-Gijs, een digitale versie van zichzelf.

Het idee ontstond in Jansens netwerk. ‘Een compagnon runt een AI-bedrijf. Hij zei: je hebt zóveel materiaal – je boeken, artikelen, supervisiegesprekken – laat ons een model bouwen dat alleen daaruit put.’ Geen alleseter, maar een zorgvuldig gevoed systeem, dat vergelijkbare vragen en metaforen gebruikt als Jansen en zelfs zijn humor imiteert.

Inmiddels wordt AI-Gijs door tienduizenden mensen gebruikt. ‘Dat verraste me’, zegt Jansen. ‘Je denkt: we testen iets. En ineens krijg je berichtjes van mensen die zich écht gezien voelden door een digitale versie van mij.’

Tegelijkertijd is het geen papegaai, benadrukt Jansen: ‘Hij bedenkt ook eigen wendingen.’ Het model leunt op zijn taal en interventies, maar improviseert ook. Het herinnert wat je eerder deelde en komt erop terug. ‘Zeg je dat je met suïcidegedachten worstelt, dan krijg je meteen een disclaimer of doorverwijzing. De bot wordt dan alerter in het navragen. Dat is ingebouwd.’

Artikel gaat verder onder de illustratie

Kan AI menselijk contact vervangen?

Jarenlang was Jansen sceptisch. ‘Ik vond dat een robot geen menselijk contact kan vervangen, maar ik merkte ook hoe snel AI beter wordt.’ Wat hem gaandeweg overtuigde, was de potentie van AI om mensen op wachtlijsten te helpen. 

‘Je kunt principieel blijven roepen dat iedereen een mens verdient. Daar ben ik het mee eens, maar ondertussen krijgt een enorme groep niemand. Als iemand met paniekklachten pas over vier maanden terechtkan, is elk hulpmiddel dat eerder verlichting biedt waardevol’, zegt Jansen. ‘AI kan in die tussentijd helpen om gedachten te ordenen of copingstrategieën te oefenen.’

AI heeft de potentie om mensen op wachtlijsten te helpen

Hij vergelijkt het met de werking van een goed zelfhulpboek. ‘Uit onderzoek blijkt dat 40 procent van de mensen opknapt van zelfhulp. Dat geldt waarschijnlijk ook voor gesprekken met een AI-therapeut: het kan net dat inzicht geven, dat beetje lucht, waardoor iemand weer verder kan.’

Waarom niet gewoon ChatGPT inzetten? ‘Omdat ik één lijn wil’, aldus Jansen. ‘ChatGPT is niet theoretisch consistent. Het haalt overal wat vandaan: een beetje cognitieve gedragstherapie, een vleugje Acceptance and Commitment Therapy (ACT), wat mindfulness.

Er zit geen samenhangend mensbeeld of therapeutisch kader achter, waardoor het soms tegenstrijdige adviezen geeft. De ene dag zegt hij dat je je gedachten moet loslaten, de volgende dag dat je ze moet onderzoeken. Dat is verwarrend. AI-Gijs is één stem, en ACT-georiënteerd; een therapievorm die draait om acceptatie van lastige gedachten en gevoelens, en om te doen wat er voor jóú toe doet.’

Dat AI-Gijs effect heeft is nog niet wetenschappelijk bewezen, maar Jansen ziet het wekelijks gebeuren: ‘Mensen voelen zich gehoord, krijgen meer overzicht in hun gedachten. En soms is dát al een vorm van verlichting.’ 

Chatbots zijn waardevol als ondersteuning, maar niet geschikt als vervanging voor reguliere therapie

Ook breder onderzoek wijst op die potentie. Zo bleek uit een recente overzichtsstudie dat therapeutisch gebruik van AI chatbots − van algemene bots tot speciale voor mentale gezondheid ontworpen systemen – kan leiden tot een duidelijke afname van angst– en depressieve klachten

Maar: drie maanden na afloop van de chatbot-interventies was dat effect grotendeels verdwenen. De winst lijkt dus tijdelijk, concluderen de onderzoekers, en de chatbots zijn daarmee waardevol als ondersteuning, maar niet geschikt als vervanging voor reguliere therapie.

Warm en wijs

Qua empathie weet de technologie te verrassen. In een recent experiment, afgelopen jaar gepubliceerd in PLOS Mental Health, beoordeelden honderden proefpersonen de reacties van zowel ChatGPT-4 als ervaren therapeuten op eigenschappen als warmte, begrip en culturele sensitiviteit. Verrassend genoeg scoorde de chatbot op alle punten even hoog of zelfs iets beter dan de menselijke therapeuten.

Deelnemers konden bovendien nauwelijks onderscheiden wie wat had geschreven. Juist dat maakt het ook spannend: als een chatbot net zo warm en wijs klinkt als een mens, ben je eerder geneigd zijn advies als veilig of betrouwbaar te zien − terwijl er geen professional meekijkt die grenzen stelt of ingrijpt als het misgaat.

AI kan mensen helpen om hun gedachten te ordenen, emoties te verkennen en tijdelijk steun te vinden

Onderzoeker Paolo Raile beschreef vorig jaar in Nature drie praktijkcasussen waarin ChatGPT werd ingezet als gesprekspartner: als hulpmiddel voor therapeuten, als ondersteuning tussen sessies, en als eerste vangnet voor mensen die (nog) geen hulp kregen.

Zijn conclusie is genuanceerd maar optimistisch: AI kan mensen helpen om hun gedachten te ordenen, emoties te verkennen en tijdelijk steun te vinden, vooral in de fase vóór of tussen echte therapiesessies.

Maar, benadrukt hij, het mist precies dat wat therapie therapie maakt: nuance, confrontatie, timing. Een mens voelt wanneer hij moet doorvragen, spiegelen of juist stil moet zijn. Een chatbot kan nabij klinken, maar is nooit werkelijk aanwezig.

Kompas uit handen geven

Die grens tussen steun en afhankelijkheid blijkt bovendien dun. Journalist en filosoof Lena Bril beschreef in haar boek In therapie hoe ze na jarenlange behandeling bij elk innerlijk conflict automatisch dacht: wat zou mijn therapeut zeggen, alsof haar gevoelens pas betekenis kregen via die ander.

Dat mechanisme ervaren mensen ook in digitale vorm. Wie ChatGPT steeds raadpleegt voor duiding of geruststelling, kan ongemerkt hetzelfde patroon ontwikkelen: het uitbesteden van zelfonderzoek aan een externe stem.

Harvard-mentor Rhea Tibrewala die beschrijft hoe veel studenten AI niet alleen als tool gebruiken maar ook als tweede brein, stelt daarbij de scherpe vraag: ‘Als elke twijfel meteen wordt gesust, wat gebeurt er dan met het rommelige, zoekende proces van zelf nadenken?’ 

Vooral mensen met een sterke behoefte aan bevestiging ervaren de chatbot als veilig en beschikbaar gezelschap, en gaan daardoor mogelijk minder af op hun eigen intuïtie. Het gesprek met een algoritme wordt zo niet alleen een bron van houvast, maar ook een subtiele manier om het eigen kompas uit handen te geven.

Lees ook: Intuïtie: waarom we meer weten dan we denken

Jansen is wat dat betreft geen doemdenker. Terwijl de wereld zich druk maakt over wat AI allemaal van ons kan overnemen, houdt hij zich liever bezig met wat het kan toevoegen. Naast AI-Gijs bouwt hij met een internationaal team aan iets dat hij Mindgrapher noemt: diagnostiek die context meeneemt.

‘Therapeuten kunnen drie variabelen tegelijk overzien; AI kan er duizenden combineren in een seconde – slaap, cafeïne, geldstress, beweging, sociale steun, et cetera – en vervolgens gerichte interventies voorstellen. Soms is het advies verrassend simpel: ga terug naar yoga, en dan blijkt dat twintig jaar geleden bij deze persoon ook te hebben geholpen. Het is geen magie; het is rekenwerk op je leefwereld.’

Hij vertelt over een topsporter die onverklaarbaar wisselend presteerde. ‘We lieten hem drie weken zijn stemming en omstandigheden loggen. Wat bleek? Als zijn vrouw ver weg was, kelderde zijn spel. De interventie? Imaginaire exposure: hij stelde zich voor dat ze erbij was en won het volgende toernooi.’

Jansen denkt niet dat AI de therapeut overbodig zal maken, maar gelooft in een toekomst waarin mens en machine elkaar aanvullen. ‘AI kan je om drie uur ’s nachts door de angst heen praten’, zegt hij. ‘Maar de mens helpt je begrijpen wat die angst betekent. AI is een brug, geen bestemming. En als we dat blijven onthouden, helpt ze ons misschien juist om mens te blijven in een digitale wereld.’

Zelf uitproberen? Download de app ACT Guide. Als je de app opent zie je meteen de optie Chat met Gijs AI. Hier kun je vragen stellen aan een AI-lifecoach die is gevoed met het werk van Gijs Jansen.

Bronnen, o.a.: G.C. Hatch e.a., When ELIZA meets therapists. A turing test for the heart and mind, PLOS Mental Health, februari 2025 / X. Feng, e.a. The therapeutic effectiveness of artificial intelligence-based chatbots (…) A systematic review and meta-analysis, Journal of Medical Internet Research, november 2025

Meer lezen over dit thema?
De inhoud op deze pagina wordt momenteel geblokkeerd om jouw cookie-keuzes te respecteren. Klik hier om jouw cookie-voorkeuren aan te passen en de inhoud te bekijken.
Je kan jouw keuzes op elk moment wijzigen door onderaan de site op "Cookie-instellingen" te klikken."