U svetu veštačke inteligencije, nova istraživanja sugerišu da modeli poput ChatGPT-a i drugih naprednih sistema pokazuju znakove kognitivnog opadanja. Istraživači iz Izraela otkrili su da stariji modeli veštačke inteligencije imaju sličnosti sa neurodegenerativnim procesima u ljudskom mozgu. Ova saznanja postavljaju pitanja o pouzdanosti AI u pružanju informacija.
Tim istraživača, uključujući neurologa Roja Dajana i Benjamina Uliela, kao i naučnika podataka Gal Koplevica, sproveo je niz kognitivnih testova na različitim verzijama popularnih chatbota. Rezultati su pokazali da su modeli poput ChatGPT 4o i Claude-a postigli samo 26 i 25 poena na testu, što ukazuje na blago kognitivno oštećenje. U poređenju sa ljudima, ovi rezultati bi sugerisali ozbiljno oštećenje.
Svi modeli su se loše pokazali na testovima vizuospatialnih i izvršnih funkcija, često ne uspevajući da ispune zadatke bez dodatnih uputstava. Na primer, odgovori na pitanja o prostornim lokacijama podsećali su na odgovore pacijenata sa demencijom. Takođe, nedostatak empatije kod svih modela može se tumačiti kao znak frontalno-temporalne demencije.
Iako su noviji modeli postigli bolje rezultate od prethodnih verzija, istraživači naglašavaju da LLM-ovi nisu ljudski mozgovi i da ih nije moguće dijagnostikovati kao demenciju. Ova saznanja izazivaju sumnju u sposobnost veštačke inteligencije da pruži pouzdane informacije, posebno u medicini.
Kako se inovacije u oblasti veštačke inteligencije nastavljaju, postoji mogućnost da će u budućnosti neki modeli postići visoke ocene na kognitivnim testovima. Do tada, saveti čak i najnaprednijih chatbota trebaju se uzimati sa dozom skepticizma. Ova istraživanja su objavljena u časopisu BMJ.
