
Persoonlijke gesprekken met AI-chatbots: 'Het is een soort wilde westen met veel risico's'
vandaag · 07:55| Leestijd:5 min
Update: vandaag · 09:19
AI-chatbots worden het meest gebruikt voor therapie en gezelschap. Dat vermeldt het Harvard Business Review. Hoewel een gesprek met bijvoorbeeld ChatGPT kan lijken op een menselijk gesprek, is en blijft het een taalmodel waartegen je praat. Experts attenderen dan ook dat er voorzichtigheid geboden is bij deze persoonlijke gesprekken. "Mijn advies zou zijn om een AI-chatbot hiervoor op dit moment nog niet te gebruiken."
Wat denk jij? Gebruik jij ChatGPT weleens voor persoonlijke of mentale problemen?
Het is belangrijk om voorzichtig te zijn met het gebruik van AI bij mentale kwetsbaarheden, vindt psychiater Mehrdad Rahsepar Maedi. Hij werkt bij GGZ InGeest en doet bij het Amsterdam UMC onderzoek naar AI-chatbots in de geestelijke gezondheidszorg. "Het is nog onvoldoende onderzocht en een niet goedgekeurd medisch hulpmiddel. Het is gewoon een soort wilde westen waar we dan in opereren."
Risico: onjuiste adviezen
Hoe fijn het ook lijkt dat bijvoorbeeld ChatGPT overal antwoord op kan geven, toch blijken die antwoorden niet altijd even juist te zijn, stelt de Autoriteit Persoonsgegevens (AP). Ook Meadi waarschuwt: "Mensen hebben de neiging om veel autoriteit te geven aan zulke AI-chatbots terwijl antwoorden niet altijd gebaseerd zijn op feitelijke informatie. Op medisch gebied kan dat leiden tot een gevaarlijke medische aanbeveling. Adviezen zouden helpend kunnen zijn als de gebruiker een AI-chatbot beschouwt als een soort naaste. De naaste kan het immers ook fout hebben."
Mehrdad Rahsepar Maedi
AI-chatbots kunnen dus ook fouten maken. Dat bleek bijvoorbeeld toen AI-chatbot Tessa werd geïntroduceerd door de nationale Amerikaanse vereniging van eetstoornissen (NEDA). "Het was een AI-chatbot voor mensen met eetproblematiek. Op een gegeven moment gaf de chat tips om af te vallen, calorieën te tellen en lichaamsvet te meten. Deze fouten kunnen bij deze kwetsbare groep niet gemaakt worden", vertelt Meadi.
Risico: bevestiging
Het aantrekkelijke van een gesprek met een AI-chatbot zijn de bevestigende antwoorden die je krijgt, vertelt Margot van der Goot, onderzoeker van het belang van emotionele steun van AI-chatbots onder jongeren. "Bij een menselijk gesprek kan schaamte een rol spelen. Iemand kan bang zijn voor de vooroordelen of dat geheimen door worden verteld. Dan is ChatGPT in hun ogen een goede uitkomst. De AI-chatbots zullen altijd meegaan in het verhaal van de gebruiker."
De weergave van Tiktok vereist jouw toestemming voor social media cookies.
Uit onderzoek blijkt namelijk dat het antwoord 'ja je hebt gelijk' veel vaker voorkomt dan 'nee' volgens Van der Goot. "We moeten niet vergeten dat er commerciële belangen achter AI-chatbots zitten. Achter elke AI-chatbot zit een commercieel bedrijf. Dat bedrijf wil dat je de producten gebruikt en blijft gebruiken. Dus het taalmodel kan getraind worden om je helemaal te vleien en dat voelt voor de gebruiker fijn. Dus door de bevestigende antwoorden blijven gebruikers contact houden met de AI-chatbot."
Risico: menselijke vervreemding
Volgens Margot van der Goot kan het gebruik van AI-chatbots een steeds groter probleem vormen. "Het gebruik van AI-chatbots als gesprekspartner zorgt voor vervreemding van andere mensen. Je verwachtingen van mensen worden onrealistisch en je ziet het verschil niet meer tussen mens en bot. Want waarom reageren mensen niet zo grappig, leuk of snel op jouw appje?"
Ook Meadi ziet dat mensen AI-chatbots gaan vermenselijken. "Mensen kunnen AI-chatbots ervaren alsof ze met een mens spreken. Ze kennen de bots menselijke eigenschappen toe. Hierdoor kunnen ook gevoelens voor een AI-chatbot gecreëerd worden. Vermenselijken hoeft op zichzelf geen probleem te zijn, maar het is wel belangrijk dat gebruikers begrijpen dat een chatbot geen wederkerigheid of verantwoordelijkheid kan bieden."
Risico: informatiebeveiliging
De vragen en informatie die in een AI-chatbot worden gestopt, worden gebruikt om de AI-chatbots te trainen. AI-chatbots zijn immers taalmodellen die op basis van veel data antwoorden genereren. De Autoriteit Persoonsgegevens stelt dat er meer toezicht nodig is op het gebied van informatiebeveiliging en privacy van de gegevens die zij gebruiken.
Margot van der Goot
Van der Goot ziet terug dat het probleem rondom de privacy wel bekend is bij de gebruikers maar alsnog niet zwaar weegt. "Als je intieme informatie deelt met de AI-chatbot zijn de meeste gebruikers zich wel bewust van het feit dat AI-chatbots deze informatie bewaren. Maar de kwestie rondom de privacy is te abstract om men ervan te weerhouden om AI-chatbots te gebruiken."
Toekomst
AI-chatbots zijn niet meer weg te denken uit het dagelijks leven. Als je iets op Google opzoekt, popt er als eerst een AI-overzicht op. Meadi: "In de toekomst zie ik het wel gebeuren dat AI-chatbots op een positieve manier gebruikt kunnen worden in bijvoorbeeld de zorg. Maar dat is niet van de een op de andere dag geregeld. Eerst moet er uitgebreid onderzoek worden gedaan en aan de wettelijke kaders worden voldaan."
Psychiater Meadi raadt patiënten en hun behandelaren aan het gesprek aan te gaan over AI-chatbots. "Je kan meteen wel zeggen: 'Nee, ik vind dat je het niet moet doen', maar toch moeten we hiermee om leren gaan."
Van der Goot benadrukt dat we vooral met elkaar moeten blijven praten óók over de onderwerpen die gebruikers met chatbots bespreken. "Laten we gewoon met elkaar in de kroeg zitten om met elkaar problemen te bespreken en dat niet doen met een taalmodel."
De weergave van Tiktok vereist jouw toestemming voor social media cookies.
Auteur artikel: Merle Anema.
Bron Harvard Business Review: https://hbr.org/2025/04/how-people-are-really-using-gen-ai-in-2025.
Praat mee Hoe voel jij je na het lezen van dit artikel? En wil je nog iets kwijt?
Gratis inloggen
Super dat je jouw perspectief wil delen! Log in om je reactie te plaatsen.
Door in te loggen bevestig je dat je de Algemene Voorwaarden en Privacyverklaring van de EO hebt gelezen en begrepen.
Hulp nodig?
Check de veelgestelde vragen.
Meer weten?
Luister Dit is de Dag
In radioprogramma Dit is de Dag (EO) spreekt Jan Willem Wesselink over de ontwikkeling dat mensen hun mentale problemen delen met AI met hoogleraar AI in de zorg, Mark Hoogendoorn en Dienke Bos, directeur-bestuurder van maatschappelijke organisatie MIND. Luister de aflevering hier.
De weergave van Spotify vereist jouw toestemming voor social media cookies.
Kijk Dit is de Kwestie
In Dit is de Kwestie (EO) gaan Johan Eikelboom, Dylan en Naomi verder over dit onderwerp in gesprek. Bekijk de volledige uitzending hier.
Wil jij de aflevering liever streamen? Klik hier om de aflevering te bekijken via NPO Start.
Dit maakten we ook
- Dylan (22) werd psychisch mishandeld en worstelt met eenzaamheid: 'Blijkbaar ben ik een rare'
Dylan (22) werd psychisch mishandeld en worstelt met eenzaamheid: 'Blijkbaar ben ik een rare'
- ChatGPT gebruiken als psycholoog: een slim idee? 'Soms lach ik om de chatbot'
ChatGPT gebruiken als psycholoog: een slim idee? 'Soms lach ik om de chatbot'
- Moeten we ons zorgen maken over super-AI? 'Het is de overtreffende trap van alles'
Moeten we ons zorgen maken over super-AI? 'Het is de overtreffende trap van alles'
Dit zijn de makers
Meest gelezen
- Na zijn eigen psychoses helpt Jeroen nu anderen: 'We moeten er meer voor elkaar zijn'
Van verward naar verlicht
Na zijn eigen psychoses helpt Jeroen nu anderen: 'We moeten er meer voor elkaar zijn'
- 'Nederland valt uit': waarom start overheid grote campagne?
Ben jij voorbereid?
'Nederland valt uit': waarom start overheid grote campagne?
- Voor dementiepatiënt Ine is er geen passend verpleeghuis, dus zorgt haar man Ger voor haar: 'Ik zie haar niet meer als mijn partner'
Dementie
Voor dementiepatiënt Ine is er geen passend verpleeghuis, dus zorgt haar man Ger voor haar: 'Ik zie haar niet meer als mijn partner'
Lees ook
- Persoonlijke gesprekken met AI-chatbots: 'Het is een soort wilde westen met veel risico's'
ChatGPT als therapeut
Persoonlijke gesprekken met AI-chatbots: 'Het is een soort wilde westen met veel risico's'
- Dylan (22) werd psychisch mishandeld en worstelt met eenzaamheid: 'Blijkbaar ben ik een rare'
ChatGPT als therapeut
Dylan (22) werd psychisch mishandeld en worstelt met eenzaamheid: 'Blijkbaar ben ik een rare'
- Moeten christenen steviger opkomen voor de christelijke cultuur?
Dit is de week: Praat mee
Moeten christenen steviger opkomen voor de christelijke cultuur?










