Čini se da nema kraja predviđanjima olujnih oblaka kada računari na kraju odluče da preuzmu stvari u svoje ruke (ili da kažemo, sopstvene procesore).
„Razvoj veštačke inteligencije mogao bi da znači kraj ljudske rase“, upozorio je Stiven Hoking.
„[AI] me dođavola plaši. Sposoban je za mnogo više nego što skoro iko zna, a stopa poboljšanja je eksponencijalna“, rekao je suosnivač OpenAI Elon Musk.
Tehnologije veštačke inteligencije predstavljaju „duboke rizike za društvo i čovečanstvo“, navodi se u pismu koje je ranije ove godine potpisalo više od 1.000 tehnoloških lidera koji pozivaju na moratorijum na istraživanje veštačke inteligencije dok se ne sazna više o potencijalnim rizicima.
„Moramo biti veoma oprezni“, rekao je Joshua Bengio, profesor i istraživač veštačke inteligencije na Univerzitetu u Montrealu.
Iako ne zanemaruju obećanje ogromnog dobra koje će veštačka inteligencija doneti širokom spektru sektora u industriji, ekonomiji, obrazovanju, nauci, poljoprivredi, medicini i istraživanju, medijski izveštaji sve više zvuče alarm zbog nenamernih posledica ove rastuće disruptivne tehnologije.
Jedna oblast zabrinutosti je pojavno ponašanje, definisano kao niz neočekivanih, neprogramiranih interakcija unutar sistema koje proizilaze iz jednostavnijih programiranih ponašanja pojedinih delova.
Istraživači kažu da se dokaz takvog ponašanja vidi u modelima koji sami uče jezike, kada sistemi obučeni da igraju šah i Go generišu originalne strategije za napredovanje, ili kada roboti pokazuju varijabilnost u obrascima pokreta koji nisu prvobitno programirani.
„Uprkos tome što pokušavam da očekujem iznenađenja, iznenađen sam stvarima koje ovi modeli mogu da urade“, rekao je Google kompjuterski naučnik Itan Dajer, odgovarajući na eksperiment veštačke inteligencije u kojem je računar neočekivano sam zaključio naslov filma na osnovu niza. od emodžija.
Ali i sam Dajer može biti iznenađen kada sazna da istraživački tim na Univerzitetu Stanford baca hladnu vodu na izveštaje o ponašanju u vanrednim situacijama.
Rajan Šefer, Brando Miranda i Sanmi Kojejo rekli su u članku objavljenom prošle nedelje da se dokazi za pojavno ponašanje zasnivaju na statistikama koje su verovatno pogrešno protumačene.
„Naša poruka je da bi ranije tvrdnje o pojavnim sposobnostima… verovatno mogle biti fatamorgana izazvana analizama istraživača“, rekli su oni.
U svom radu objavljenom na arKsiv serveru za preprint, istraživači su objasnili da se sposobnosti velikih jezičkih modela mere određivanjem procenta njegovih tačnih predviđanja.
Statističke analize mogu biti predstavljene na brojne načine. Istraživači tvrde da kada se rezultati izveštavaju u nelinearnim ili diskontinualnim metrikama, izgleda da pokazuju oštre, nepredvidive promene koje se pogrešno tumače kao indikatori ponašanja u nastajanju.
Međutim, alternativni način merenja identičnih podataka korišćenjem linearne metrike pokazuje „glatke, neprekidne“ promene koje, suprotno prethodnoj meri, otkrivaju predvidljivo—ne-emergentno—ponašanje.
Tim sa Stanforda je dodao da neupotreba dovoljno velikih uzoraka takođe doprinosi pogrešnim zaključcima.
„Postojeće tvrdnje o sposobnostima koje se pojavljuju su kreacije analiza istraživača, a ne fundamentalne promene u ponašanju modela na određenim zadacima“, rekao je tim.
Dodali su da, iako je metodologija u prošlim istraživanjima verovatno donela pogrešne zaključke, „ništa u ovom radu ne treba tumačiti kao tvrdnju da veliki jezički modeli ne mogu da pokažu nove sposobnosti“, sugerišući da bi odgovarajuća metodologija mogla otkriti takve kapacitete.
„Glavni zaključak“, rekli su istraživači, „je za fiksni zadatak i fiksnu porodicu modela, istraživač može da izabere metriku za kreiranje nove sposobnosti ili da izabere metriku za uklanjanje nove sposobnosti.“
Ili kao što je jedan istaknuti komentator izjavio: „Izlaz algoritma je dobar onoliko koliko su dobri parametri koje su postavili njegovi kreatori, što znači da postoji prostor za potencijalnu pristrasnost unutar same veštačke inteligencije.“
A ko je bio taj istaknuti komentator? Microsoft Bing ChatGPT.