Kan AI de rol van psycholoog overnemen?

23 June 2025, 17:49 uur
Landelijk
mainImage
Pexels

Stel: je hebt een moeilijke dag. Je opent je laptop, start een chatvenster, en typt: “Ik voel me leeg.” Aan de andere kant geen mens, maar een algoritme – GPT, Gemini. De AI leest, analyseert, en formuleert een empathisch antwoord. Is dat zorg? Is dat hulp? Of is het een overtuigende imitatie van begrip?
In april 2024 ging de American Psychological Association met vijf vooraanstaande wetenschappers in gesprek over een vraag die steeds minder hypothetisch klinkt: kan AI de psycholoog vervangen? Het antwoord is geen ja, geen nee, maar een wankele tussenruimte waarin alles mogelijk lijkt en tegelijk alles onzeker blijft.

Wat AI nu al kan – en doet
AI wordt al ingezet voor psychologisch onderzoek. Niet meer als hulpmiddel, maar als gesimuleerde deelnemer. Onderzoekers voeren vragenlijsten en morele dilemma’s in en krijgen antwoorden terug die verrassend dicht in de buurt komen van menselijke reacties. Soms zelfs beter. In één studie scoorde GPT-3.5 een correlatie van 0,95 met menselijke morele oordelen.
 
AI leest sneller, onthoudt meer en oordeelt consistent. Waar mensen worden beïnvloed door emoties, vermoeidheid of context, blijft de machine koel en logisch. In triage simulaties scoorde AI beter dan artsen in het herkennen van spoedeisende gevallen. In theorietoetsen haalt het gemiddeld een ruime voldoende.

Maar psychologie is geen wiskunde
Toch wringt het. Want therapie is geen rekensom. Het draait om nuance, afstemming en context. Wat als iemand niet alleen een antwoord wil, maar gezien wil worden? Wat als de blik van een mens – zijn houding, ademhaling, stiltes – evenveel zegt als zijn woorden?
 
“AI kan zinnen produceren die empathisch klinken. Maar voelt het ook echt? En als het dat niet doet, maakt dat dan uit?”
 
“Onze datasets zijn gebouwd op een kleine, homogene groep mensen,” stelt dr. Mohammad Atari. “We bestuderen vooral westerse, hoogopgeleide proefpersonen. Als we dat als maat nemen, krijgen we ook algoritmes die alleen die groep goed begrijpen.” Het risico: AI wordt universeel uitgerold, op basis van een eenzijdige blauwdruk van de mens.

Simulatie of vervanging?
Er zijn twee paden. Het eerste: AI als assistent. Iemand die de psycholoog ondersteunt met data-analyse, patroonherkenning, herinnering van casuïstiek. Een digitale collega die nooit moe wordt, nooit iets vergeet. In dat scenario blijft de mens aan het roer, maar werkt nauw samen met zijn digitale schaduw.
 
Het tweede pad: AI als vervanger. Chatbots die therapiegesprekken voeren. Virtuele therapeuten die je intake afnemen, je voortgang volgen, je gedrag bijsturen. Dat klinkt dystopisch – maar het gebeurt al. In de VS draaien meerdere pilots met AI-therapie voor milde klachten. En in de commerciële hoek bieden platforms zoals Woebot en Wysa gesprekken aan met een ‘vriendelijke digitale coach’.

Moreel kompas of algoritmische imitatie?
“AI maakt morele oordelen die verbazend veel lijken op die van mensen”, zegt dr. Kurt Gray. “Maar de vraag is: komt dat door begrip, of door de statistiek?” In experimenten bleek GPT soms minder ‘groepsdenkend’ te werken dan mensen. Minder bevooroordeeld, zelfs moreel consistenter. Maar ook naïever. Een voorbeeld: GPT vond het prima als een coach blij was om een doelpunt van de tegenpartij. Want: het doelpunt is goed nieuws. De sociale context van loyaliteit en competitie ontbrak.
 
AI lijkt dus moreel ‘beter’, maar mist de rafelranden die de menselijke moraal vormgeven. Wat als juist die tegenstrijdigheden ons mens maken?

De ethiek van simulatie
AI-gegenereerde deelnemers vragen geen toestemming, voelen geen schade, stellen geen vragen. Dat maakt onderzoek makkelijker. Maar ook ethisch glibberig. Wat als de uitkomsten van AI-simulaties leidend worden voor interventies in de echte wereld? En wie is verantwoordelijk als het misgaat?

Een kwestie van geloof
Net zoals een gokker die de Masonslots Login functieknop indrukt en vertrouwt op de interface voor een eerlijke kans, zo vertrouwt de AI-gebruiker op het systeem voor juiste zorg. Maar waar bij het casino het risico bewust is, blijft het bij AI vaak verborgen. De interactie voelt menselijk, maar is dat niet. En de gevolgen zijn nog nauwelijks onderzocht.