Nova studija upozorava na rizike autofagijskog poremećaja u veštačkoj inteligenciji: Kvalitet i raznolikost podataka opadaju

Nova studija upozorava na rizike autofagijskog poremećaja u veštačkoj inteligenciji: Kvalitet i raznolikost podataka opadaju

Studija istraživača sa Univerziteta Rajs i Univerziteta Stanford upozorava na zabrinjavajući fenomen u svetu veštačke inteligencije: model autofagijskog poremećaja (MAD). Ova pojava opisuje stanje u kojem generativni modeli veštačke inteligencije, obučeni na sintetičkim podacima, počinju da proizvode sve lošiji sadržaj.

Prema istraživanju, kada AI modeli koriste isključivo sintetičke podatke umesto svežih stvarnih informacija, kvalitet njihovih izlaza se pogoršava. Istraživači su primetili da se izlazni materijali, kao što su kompjuterski generisane slike, sve više iskrivljuju i postaju prepoznatljivije zbog artefakata. Na primer, lica koja su generisali modeli postala su sličnija jedno drugom, dok su brojevi postajali nedešifrljivi.

Istraživači su testirali tri scenarija: (1) potpuno sintetičke podatke, (2) sintetičke podatke pomešane sa fiksnim stvarnim podacima, i (3) sintetičke podatke pomešane sa stalno osvežavanim stvarnim podacima. Rezultati su pokazali da je svežina stvarnih podataka ključna za održavanje kvaliteta izlaza. U scenariju sa osvežavanjem podataka, model je bolje održao kvalitet.

„Bez dovoljno svežih podataka iz stvarnog sveta, budući generativni modeli mogu postati nepopravljivo oštećeni“, kaže Richard Baraniuk sa Univerziteta Rajs. Ova studija je posebno značajna u svetlu prethodnih upozorenja o ograničenjima generativnih AI alata i može imati dugoročne posledice na kvalitet i raznolikost podataka dostupnih na internetu.

Studija je predstavljena na Međunarodnoj konferenciji o reprezentacijama učenja (ICLR), a prateći rad dostupan je na mreži.