Zašto duboke neuronske mreže favorizuju jednostavnost: Otkriće iz Oksforda otkriva prirodu učenja veštačke inteligencije

Zašto duboke neuronske mreže favorizuju jednostavnost: Otkriće iz Oksforda otkriva prirodu učenja veštačke inteligencije

Studija sa Univerziteta Oksford objavljena 14. januara u Nature Communications otkrila je ključni razlog zašto duboke neuronske mreže (DNN) koje pokreću modernu veštačku inteligenciju (AI) imaju tako izuzetnu efikasnost u učenju iz podataka. Prema ovoj studiji, DNN-ovi poseduju ugrađeni „Occamov brijač“, što znači da kada su suočeni sa višestrukim rešenjima koja odgovaraju podacima za obuku, oni imaju tendenciju da favorizuju ona koja su jednostavnija. Ovaj mehanizam omogućava DNN-ovima da prepoznaju najjednostavnije obrasce u podacima, što im pomaže da donose tačna predviđanja, čak i kada je broj parametara mnogo veći od broja tačaka podataka.

Profesor Ard Louis, teoretski fizičar sa Oksforda i lider studije, objasnio je da je efektivnost DNN-a bila poznata, ali tačan oblik njihove pristrasnosti prema jednostavnosti do sada je bio nepoznat. On i njegovi kolege odlučili su da istraže kako DNN-ovi uče osnovne računske funkcije, poznate kao Bulove funkcije, koje mogu imati samo dva moguća rezultata: tačno ili netačno.

Iako DNN-ovi mogu tehnički ugraditi bilo koju funkciju u podatke, oni preferiraju jednostavnije funkcije koje je lakše opisati. Ovo znači da su oni prirodno skloni da odaberu jednostavnija pravila, što ima ključnu prednost u odnosu na složenija rešenja. Čak i kada veličina sistema raste i broj mogućih rešenja eksponencijalno raste, DNN-ovi nastavljaju da favorizuju jednostavna rešenja koja se dobro generalizuju.

Ovaj princip omogućava DNN-ovima da prepoznaju retke, jednostavne funkcije koje se dobro primenjuju i na nove, neviđene podatke, dok istovremeno izbegavaju složene funkcije koje mogu dobro odgovarati podacima o obuci, ali loše generalizovati na nevidljive podatke.

Međutim, kada su podaci složeniji i ne mogu se svesti na jednostavne obrasce, DNN-ovi ne uspevaju da postignu visoke performanse, ponekad čak ni bolje od nasumičnih nagađanja. Iako ovo ograničenje može biti problematično u nekim situacijama, istraživači naglašavaju da su podaci iz stvarnog sveta često prilično jednostavni i strukturirani, što omogućava DNN-ovima da efikasno funkcionišu u većini praktičnih aplikacija.

Studija takođe otkriva snažnu paralelu između veštačke inteligencije i prirodnih evolucijskih sistema. Induktivna pristrasnost prema jednostavnosti koju poseduju DNN-ovi podseća na pristrasnosti koje se javljaju u prirodnim sistemima, poput proteinskih kompleksa, što može objasniti zašto jednostavnost igra tako važnu ulogu u razvoju složenih sistema.

Ova otkrića ne samo da pomažu u razumevanju kako DNN-ovi funkcionišu, već otvaraju vrata za dalje istraživanje veza između učenja u AI i evolucije u prirodi. Profesor Louis naglašava da ovo istraživanje sugeriše da bi ove pristrasnosti mogle imati duboke veze sa osnovnim zakonima prirode, što bi moglo dovesti do novih uvida u nauku i tehnologiju.

Iako studija razjašnjava kako DNN-ovi dolaze do svojih zaključaka, istraživači ukazuju da još uvek postoje nepoznanice u vezi sa specifičnim modelima DNN-a i zašto neki od njih bolje rade u određenim situacijama nego drugi. Ovo istraživanje takođe ukazuje na mogućnost razvoja novih metoda za poboljšanje performansi DNN-a u složenijim zadacima.

Ova studija nije samo tehnološko otkriće; ona može promeniti način na koji razmišljamo o učenju i inteligenciji, otkrivajući fundamentalne principe koji upravljaju veštačkom inteligencijom, kao i prirodom samog učenja.