Hoe goed beantwoordt ChatGPT gezondheidsvragen?

ProfielfotoArenda Vermeulen 12-09-2025
5769 keer bekeken 3 reacties

OpenAI heeft onlangs een nieuwe versie van GPT uitgebracht: GPT-5. Deze versie geeft beter advies over geestelijke gezondheid en is minder vaak té positief. Ook maakt het veel minder fouten. Zo is de nauwkeurigheid van diagnoses verdubbeld.

Sinds de lancering van ChatGPT stellen patiënten vragen aan de AI-toepassing over diagnoses, behandelingen en hoe ze hun gezondheid kunnen beheren. Sommigen uploaden zelfs laboratoriumtestresultaten en volledige medische dossiers voor een second opinion. Soms kregen ze misleidende antwoorden, soms ook een aanwijzing waarmee ze na jarenlang dokter na dokter te hebben bezocht eindelijk de oorzaak van de ziekte konden achterhalen.

Deze onzekerheid over het resultaat was het grootste probleem met ChatGPT (en andere op LLM’s gebaseerde toepassingen): hoewel eerdere modellen verrassend nauwkeurige antwoorden gaven, gaven ze af en toe ook onjuiste informatie met onterechte zelfverzekerdheid, en soms bleven ze in deze onnauwkeurigheden steken. GPT-5 moet deze tekortkomingen aanpakken met diepgaandere, genuanceerdere antwoorden en een verbeterd contextueel begrip. Dit maakt het - in potentie - een waardevolle assistent voor zowel patiënten als zorgprofessionals.

Lees ook: Kwart AI-gebruikers vraagt medisch advies aan chatbot

Bijzondere uitdaging

Gezondheidsgerelateerde vragen vormen een bijzondere uitdaging voor AI, omdat zelfs kleine nuances in symptomen of medische voorgeschiedenis de uitkomsten aanzienlijk kunnen beïnvloeden. Volgens OpenAI verminderen de verbeterde redeneringen en besluitvorming van GPT-5 de kans op hallucinaties aanzienlijk, waardoor het een veiliger en betrouwbaarder hulpmiddel is. Dit is wat we weten over de nieuwe mogelijkheden van GPT-5.

GPT-5 werd geëvalueerd met behulp van HealthBench, een diagnostisch platform met 5.000 real-life gezondheidsscenario's die gevalideerd zijn door zorgprofessionals. De resultaten toonden een aanzienlijke verbetering ten opzichte van eerdere modellen.

Verbeterde nauwkeurigheid

Wanneer de optie ‘denk langer’ werd ingeschakeld, verdubbelde de nauwkeurigheid van GPT-5 ten opzichte van GPT-4o. De hallucinatiepercentages voor medische vragen daalden van 15,8 procent in GPT-4o naar slechts 1,6 procent in GPT-5. Zelfs zonder deze optie, die slechts één keer per dag gratis beschikbaar is, blijft de daling enorm.

GPT-5 gaat verder dan tekstuele analyse met ingebouwde multimodale medische redenering. Het kan patiëntgegevens interpreteren in verschillende formaten, waaronder testresultaten en medische afbeeldingen. GPT-4 had op dit gebied slechts matig succes.

Bij medische onderzoeken zoals de USMLE presteerde GPT-5 beter dan menselijke experts. De multimodale mogelijkheden maken het mogelijk om tekstuele beschrijvingen te combineren met afbeeldingen, vervolgvragen te stellen en voorlopige beoordelingen te geven.

GPT-5 heeft ook een voordeel ten opzichte van algemene zoekmachines. In tegenstelling tot de klassieke Google-zoekmachine, die mogelijk prioriteit geeft aan de populariteit van de inhoud en soms de risico's overdrijft door lichte symptomen te classificeren als ernstige aandoeningen, biedt GPT-5 voorzichtigere richtlijnen, vaak gebaseerd op het meest recente bewijs. Het nieuwe model heeft ook een kleine verbetering: het zou zich nu moeten richten op praktische vervolgstappen en indien nodig professioneel advies moeten voorstellen, in plaats van de rol van een arts op zich te nemen.

Desinformatie voorkomen

OpenAI heeft waarborgen ingebouwd om te voorkomen dat GPT-5 desinformatie verspreidt. Gezondheidsadvies is nu afgestemd op het kennisniveau, de culturele context en de geografische regio van de gebruiker. Ingebouwde beperkingen zorgen ervoor dat het model geen vragen beantwoordt die buiten zijn expertise vallen of ethisch gevoelige onderwerpen behandelt, waardoor verantwoorde begeleiding prioriteit krijgt.

Samenvatting

Samengevat is het model voorzichtiger in zijn medische redenering, moedigt aan tot consultatie van professionals en vermindert hallucinaties aanzienlijk, wat een belangrijke stap is in de richting van veilig gebruik van AI in de gezondheidszorg.

Lees het hele artikel op de website van ICT & health

Lees ook: Een psychose na gesprek met AI-chatbot: experts willen onderzoek

Afbeeldingen

Bekijk ook

0  reacties

Log in om te reageren.

Leernetwerk Digitale Zorg is een initiatief van Vliegwiel, een programma van Patiëntenfederatie Nederland

Cookie-instellingen