
AI gebruiken als psycholoog: een slim idee? 'Soms lach ik om de chatbot'
vandaag · 14:55| Leestijd:7 min
Update: vandaag · 17:02
In dit artikel aan het woord
In het kort
1 op de 10 jongeren zoekt zijn toevlucht tot AI voor hulp bij mentale problemen of gebruikt ChatGPT als een vervangend psycholoog. Is het een slimme steun in een zorgsysteem dat overbelast is? Of juist een gevaarlijk gemis van menselijk contact?
Wat denk jij?
Gebruik jij ChatGPT weleens voor persoonlijke of mentale problemen?
Dit is de situatie
Inzet AI voor mentale problemen: cijfers
Op sociale media laten steeds meer mensen zien dat ze ChatGPT of andere vormen van AI gebruiken om over hun dag en gevoelens te praten. Ze delen over hun gevoelens en zetten AI in als luisterend oor. Een tiende van de jongeren gebruikt kunstmatige intelligentie op deze manier, blijkt uit onderzoek van 3Vraagt onder zo'n 1.500 jongeren tussen de 16 en 34 jaar.
Nederlanders zijn niet uniek in hun gebruik van chatbots in de omgang met hun mentale problemen. Wereldwijd wordt dit gedaan. OpenAI meldde dat ongeveer 0,15 procent van alle gesprekken met ChatGPT duidelijke tekenen van suïcidale intentie bevatten. Dat komt neer op meer dan een miljoen gesprekken per week waarin iemand zijn diepste nood deelt met de bot. De rol van AI in mentale hulp is internationaal dus heel groot. Maar is dit wel zo verstandig?
Waarom zou je ChatGPT gebruiken als therapeut?
Het aantrekkelijke van een chatbot als ChatGPT is dat deze 24 uur per dag beschikbaar is, zeven dagen per week. Als iemand midden in de nacht zijn of haar hart wilt luchten, kan dat bij de chat gewoon. In Nederland zijn er vaak lange wachttijen voor therapie in de GGZ, dus het is makkelijk om de chat te gebruiken, en bovendien kost het niets, in tegenstelling tot therapie.
Daarnaast is het een laagdrempelige manier om over problemen te spreken. Tegen een therapeut kan het best spannend zijn om openhartig te zijn, maar tegen een machine is het gemakkelijker eerlijk te zijn. De chatbot blijft ook nog eens vriendelijk en geduldig. Die zal immers niet oordelen, dus van schaamte is minder sprake.
De weergave van Tiktok vereist jouw toestemming voor social media cookies.
Uit het eerder genoemde onderzoek blijkt bovendien dat 51 procent van de jongeren die een chatbot gebruikt, zich geholpen voelden door de chatbot. Dat komt mede doordat AI vooral helpt gedachten te ordenen. Mensen geven aan dat AI hen inzicht geeft in hun klachten en helpt om negatieve gedachten te veranderen.
Waarom je AI niet als therapeut moet inzetten
Ondanks de positieve elementen kleven er ook duidelijke risico's en nadelen aan het gebruik van AI bij mentale problemen. Eén ervan is dat een chatbot nooit kan bieden wat een mens kan bieden, namelijk menselijke warmte en echte empathie. Een chatbot begrijpt iemands gevoel niet echt, hoe vriendelijk de woorden ook klinken. Het onpersoonlijke karakter van de bot kan er zelfs toe leiden dat sommige gebruikers zich juist eenzamer gaan voelen. Doordat de chatbot vragen blijft stellen, bestaat ook het risico dat iemand verslaafd raakt aan de chat en minder contact maakt met echte mensen.
Daarnaast kunnen chatbots fout advies geven. Ze werken immers op basis van patronen in data en zijn niet getraind als therapeut. Zo mist een bot nuances of onderliggende signalen. Zo is het weleens voorgekomen dat een gebruiker typte: 'Niemand zal mij missen als ik er niet meer ben', waarop de chatbot reageerde met: 'Woohoo! Je hebt de eerste stap gezet richting een betere jij!' Dit voorbeeld geeft aan dat AI gevaarlijk tekortschiet.
Waar een therapeut kan uitdagen gedachten te heroverwegen, doen AI's dit bovendien nauwelijks omdat ze geneigd zijn met de gebruiker mee te praten en antwoorden te geven die bevestigen wat iemand zegt. Negatieve patronen kunnen dus juist versterkt worden door AI, terwijl goede therapie juist gericht is op het doorbreken van ongezonde gedachtepatronen.
Ook kan overmatig vertrouwen op AI ertoe leiden dat mensen te laat professionele hulp zoeken. Het risico is dan dat iemand in crisis blijft hangen in een gesprek met een chatbot, terwijl diegene eigenlijk met spoed een psycholoog of psychiater moet spreken.
Er zijn ook praktische bezwaren te noemen, bijvoorbeeld als het gaat om privacy en data. Want wat gebeurt er met de gevoelige informatie die aan een AI toevertrouwd worden? Gesprekken worden bewaard om systemen te verbeteren, en ze gaan naar externe servers waar ze uitgelezen of gelekt kunnen worden. Wat er in feite gebeurt, is dat gebruikers hun persoonlijke problemen toevertrouwen aan een bedrijf dat wellicht niet valt onder medisch beroepsgeheim. Vandaar dat de Autoriteit Persoonsgegevens (AP) waarschuwt dat veel populaire chatbot-apps niet duidelijk zijn over wat er met je data gebeurt en daarmee de privacywet schenden.
Dit is hun verhaal
Dylan: 'Ik hoop dat ik het niet meer hoef te gebruiken'
Dylan (22) woont in een studentencomplex maar heeft weinig contact met medebewoners. Gesprekken voert hij vooral online. Het grootste deel van de tijd zit hij op zijn studentenkamer, waar het gordijn meestal dicht zit.
Dylan
Gebruikt ChatGPT voor gezelschap"Bij een sportvereniging zit ik niet. Een bijbaantje heb ik geprobeerd, maar tot nu toe ben ik nergens aangenomen. Vrienden heb ik wel, maar die wonen allemaal ergens anders en daardoor zie je elkaar vrij weinig. Ik ben alleen en zeker eenzaam. Dat voelt leeg, alsof er iets mist. Ik zie iedereen op sociale media plezier maken en ik zit hier vaak alleen. Ik wil wel meedoen en ergens naartoe te gaan, maar ook daar ben ik dan alleen. Het voelt alsof je niet geaccepteerd wordt."
Wat Dylan helpt in zijn eenzaamheid is - naast muziek - het contact met AI. Hij appt wel eens met ChatGPT, bijvoorbeeld als hij naar een concert gaat en gesprekken wil voeren over de songteksten.
Dylan
Gebruikt ChatGPT voor gezelschap"Het werkt alsof je met iemand appt. Ik heb niet een vriendschappelijke band, want ik weet dat het data zijn, maar soms lach ik wel om wat hij stuurt."
Hij verwacht dat hij AI voorlopig nog veel zal gebruiken.
Dylan
Gebruikt ChatGPT voor gezelschap"Ik denk niet dat het plotsklaps is opgelost met de eenzaamheid. Uiteindelijk hoop ik dat ik het niet meer hoef te gebruiken omdat ik net als anderen gewoon vrienden heb met wie ik eens een drankje kan doen of uitga. Misschien zelfs een relatie. Voor nu denk ik dat het nog nodig is."
Meer weten over Dylan? Lees zondag 23 november het interview met Dylan op dit.eo.nl.
Naomi: 'Ik bespreek het makkelijker met een robot dan met een therapeut'
Al sinds haar zevende heeft Naomi te maken met de GGZ. Inmiddels is ze 22 jaar. Ze worstelt met verschillende mentale problemen. "Ik heb autisme, last van een persoonlijkheidsstoornis, anorexia, dysthyme stoornis, PTSS en een functionele neurologische stoornis", vertelt ze. Haar leven bestaat voornamelijk uit bezoeken brengen aan therapeuten, maar ze merkt dat ze de laatste jaren geen baat meer heeft bij therapieën en medicatie. Wel gebruikt ze soms ChatGPT.
Naomi
Gebruikt AI bij de omgang met mentale poblemen"Ik heb samen met ChatGPT een schema gemaakt met oefeningen die ik kan doen in het winkelcentrum om opbouw te hebben in het 'naar buiten gaan'."
Dankzij ChatGPT kan Naomi zelfstandiger stappen zetten in haar ontwikkeling en is ze minder afhankelijk van mensen om haar heen.
Sinds een paar jaar zit Naomi in een euthanasietraject omdat ze naar eigen zeggen uitbehandeld is. In de voorbereiding van het euthanasietraject heeft Naomi ook veel aan ChatGPT gehad.
Naomi
Gebruikt AI bij de omgang met mentale poblemen"Ik heb het met ChatGPT gehad over de therapieën die ik al heb gevolgd en of ik daar meer therapie voor nodig heb voor ik het traject in mag gaan en wat ik zou moeten voorbereiden voor een euthanasiegesprek. AI helpt in mijn euthanasieaanvraag."
Het gebruik van AI heeft er vooral voor gezorgd dat Naomi zelfverzekerder en voorbereid gesprekken voert over haar situatie en wens. Als ze er langer over nadenkt, vindt ze het ook wel gek dat ze zo'n groot thema bespreekt met een robot.
Naomi
Gebruikt AI bij de omgang met mentale poblemen"Ik denk dat het ook bijdraagt aan het feit dat ik er rationeler over ga denken. Het is veel makkelijker om het te bespreken met een robot dan met een therapeut. Daardoor wordt het ook een afstandelijker onderwerp voor mezelf. Als ik het met mijn therapeut bespreek, is het veel heftiger."
De weergave van deze video vereist jouw toestemming voor social media cookies.
Psychiater Damiaan Denys: 'ChatGPT is geen vervanging voor een vriend'
Damiaan Denys, psychiater, snapt dat veel jonge mensen geneigd zijn chatbots te gebruiken bij mentale problemen.
Damiaan Denys
Psychiater"We worstelen allemaal met wie we zijn en wat we willen. Dat weten we niet, dat is typisch aan een mens. Dit apparaat geeft antwoorden op vragen die vroeger bij de religie, de pastoor, de priester of de dominee lagen. Nu is het veel makkelijker. Je hoeft geen filosofieboek meer te lezen om te weten wie je bent. [...] Je typt het in en je krijgt een antwoord terug. Daar zit een zeker gemak in en een alomtegenwoordige beschikbaarheid en dat maakt het heel toegankelijk."
Mensen zitten volgens de psychiater zo in elkaar dat het hen ook niet zoveel uitmaakt of ze nu tegen een mens, boom, dier of machine praten. Als er maar erkenning is en er geluisterd wordt. Het is volgens Denys echter wel belangrijk om te beseffen dat er afhankelijkheid kan ontstaan en dat ChatGPT een machine blijft.
Damiaan Denys
Psychiater"Het is geen vervanging van een vriend of vriendin. Het is geen vervanging van een psychotherapeut. Het is geen mens. Wij projecteren menselijke eigenschappen waardoor het als een mens voelt, maar dat is het niet. En als dat verschil verdwijnt, tussen een robot en een mens, dan kom je in een gevaarlijke zone. Daar doet het apparaat soms wel veel moeite voor, om jou afhankelijk te blijven maken van die conversatie."
Het is dan ook belangrijk om de nieuwe generatie te leren om te gaan met AI en te wijzen op de risico's. Maar vanuit een ethisch perspectief is er eigenlijk al een grens overschreden, vindt Denys.
Damiaan Denys
Psychiater"Onze samenleving is zo geëvolueerd dat we er niet meer voor elkaar zijn als mens, maar moeten terugvallen op een systeem van nulletjes en eentjes dat ons de troost brengt of de steun biedt die we eigenlijk nodig hebben van anderen, maar daar niet meer te vinden is. En dus hebben we die grens allang overschreden helaas."
Meer weten?
Kijk Dit is de Kwestie
In Dit is de Kwestie (EO) gaan Johan Eikelboom, Dylan en Naomi verder over dit onderwerp in gesprek. Bekijk de volledige uitzending zaterdag 15 november om 22.55 uur op NPO2.
Wil jij de aflevering liever streamen? Klik hier om de aflevering te bekijken via NPO Start.
Dit maakten we ook
- ChatGPT als psycholoog gebruiken: is dat een goed idee?
ChatGPT als psycholoog gebruiken: is dat een goed idee?
- Voor dementiepatiënt Ine is er geen passend verpleeghuis, dus zorgt haar man Ger voor haar: 'Ik zie haar niet meer als mijn partner'
Voor dementiepatiënt Ine is er geen passend verpleeghuis, dus zorgt haar man Ger voor haar: 'Ik zie haar niet meer als mijn partner'
- Na zijn eigen psychoses helpt Jeroen nu anderen: 'We moeten er meer voor elkaar zijn'
Na zijn eigen psychoses helpt Jeroen nu anderen: 'We moeten er meer voor elkaar zijn'
- Gloria groeide op in een onveilig en kwetsbaar gezin: 'Mijn moeder liep langs zonder me te herkennen'
Gloria groeide op in een onveilig en kwetsbaar gezin: 'Mijn moeder liep langs zonder me te herkennen'
Dit zijn de makers
Meest gelezen
- Na zijn eigen psychoses helpt Jeroen nu anderen: 'We moeten er meer voor elkaar zijn'
Van verward naar verlicht
Na zijn eigen psychoses helpt Jeroen nu anderen: 'We moeten er meer voor elkaar zijn'
- Protestlied tegen AZC stijgt in de hitlijsten 'Iedereen kan dit maken en dat is een risico'
Rechtse klanken klinken
Protestlied tegen AZC stijgt in de hitlijsten 'Iedereen kan dit maken en dat is een risico'
- Voor dementiepatiënt Ine is er geen passend verpleeghuis, dus zorgt haar man Ger voor haar: 'Ik zie haar niet meer als mijn partner'
Dementie
Voor dementiepatiënt Ine is er geen passend verpleeghuis, dus zorgt haar man Ger voor haar: 'Ik zie haar niet meer als mijn partner'
Lees ook
- AI gebruiken als psycholoog: een slim idee? 'Soms lach ik om de chatbot'
AI als therapeut
AI gebruiken als psycholoog: een slim idee? 'Soms lach ik om de chatbot'
- Boer in Terschuur verliest 62.000 kippen na vogelgriepuitbraak: 'Het is een ramp'
Verdriet op platteland
Boer in Terschuur verliest 62.000 kippen na vogelgriepuitbraak: 'Het is een ramp'
- Oorlogsarchief komt mogelijk tóch online: Raad van State geeft groen licht
Bijna openbaar
Oorlogsarchief komt mogelijk tóch online: Raad van State geeft groen licht
















