Een recent gepubliceerde studie in het BMJ onthult opmerkelijke bevindingen over de evaluatie van taalmodellen (LLMs) in relatie tot cognitieve achteruitgang. Neurologen en een datawetenschapper hebben verschillende modellen getest, waaronder ChatGPT 4, 4o, Gemini en Claude 3.5, en ontdekten vergelijkbare cognitieve beperkingen zoals die bij mensen voorkomen. Opvallend is dat ChatGPT 4o een alarmerende score van 26/30 behaalde op de MoCA, wat wijst op cognitieve achteruitgang die vergelijkbaar is met neurodegeneratieve processen.
Kernpunten:
- De AI-testen onthullen cognitieve achteruitgang bij LLMs die vergelijkbaar is met die van mensen.
- Neurologen tonen aan dat ChatGPT 4, 4o, Gemini en Claude 3.5 cognitieve beperkingen vertonen.
- De resultaten van de modellen wijzen op zwakke plekken in visueel-ruimtelijke en executieve vaardigheden.
- Er is behoefte aan een kritische evaluatie van AI-adviezen, zoals blijkt uit het onderzoek gepubliceerd in het BMJ.
AI en cognitieve achteruitgang
Een recente studie heeft opvallende bevindingen gedaan over de relatie tussen kunstmatige intelligentie (AI) en cognitieve achteruitgang. Neurologen en een datawetenschapper onderzochten verschillende taalmodellen, waaronder ChatGPT 4, 4o, Gemini en Claude 3.5, om te bepalen of ze tekenen van cognitieve achteruitgang vertoonden die overeenkomen met die van mensen.
Resultaten van AI-testen
De behaalde scores tijdens de testen wijzen op cognitieve achteruitgang die parallel loopt met menselijke neurodegeneratieve processen. In het bijzonder behaalde ChatGPT 4o een score van 26 van de 30 bij de MoCA (Montreal Cognitive Assessment), wat wijst op een lichte cognitieve beperking. Deze bevindingen roepen bezorgdheid op over de ontwikkeling en het gebruik van LLMs in kritieke toepassingen.