Brojni poznati istraživači veštačke inteligencije potpisali su otvoreno pismo pozivajući laboratorije AI širom sveta da pauziraju razvoj velikih AI sistema, navodeći strahove od „dubokih rizika za društvo i čovečanstvo“.
U pismu, koje je objavila neprofitna organizacija Future of Life Institute, navodi se da su AI laboratorije trenutno zaključane u „trci van kontrole“ za razvoj i primenu sistema mašinskog učenja „koje niko — čak ni njihovi tvorci — ne može da razume, predvidi , ili pouzdano kontrolisati.”
„Stoga pozivamo sve laboratorije za veštačku inteligenciju da odmah pauziraju na najmanje 6 meseci obuku AI sistema moćnijih od GPT-4“, navodi se u pismu. „Ova pauza treba da bude javna i proverljiva i da uključi sve ključne aktere. Ako se takva pauza ne može brzo doneti, vlade bi trebalo da se umešaju i uvedu moratorijum.”
Među potpisnicima su autor Juval Noa Harari, suosnivač Apple-a Stiv Voznijak, suosnivač Skajpa Jaan Talin, političar Endrju Jang i veliki broj poznatih istraživača i izvršnih direktora veštačke inteligencije, uključujući Stjuarta Rasela, Jošuu Benđoa, Gerija Markusa i Emada Mostaka. . Kompletna lista potpisnika može se videti ovde, mada prema novim imenima treba postupati sa oprezom jer postoje izveštaji da su imena dodata na listu kao šala (npr. izvršni direktor OpenAI Sem Altman, pojedinac koji je delimično odgovoran za trenutnu dinamiku trke u AI).
Malo je verovatno da će pismo imati ikakvog uticaja na trenutnu klimu u istraživanju veštačke inteligencije, zbog čega su tehnološke kompanije poput Gugla i Majkrosofta požurile da uvedu nove proizvode, često odbacujući ranije iskazane brige oko bezbednosti i etike. Ali to je znak sve većeg protivljenja ovom pristupu „pošalji sada i popravi kasnije“; opozicija koja bi potencijalno mogla da se probije u politički domen radi razmatranja stvarnih zakonodavaca.
Kao što je navedeno u pismu, čak je i sam OpenAI izrazio potencijalnu potrebu za „nezavisnim pregledom“ budućih sistema veštačke inteligencije kako bi se osiguralo da ispunjavaju bezbednosne standarde. Potpisnici kažu da je ovo vreme sada došlo.
„Laboratorije za veštačku inteligenciju i nezavisni stručnjaci treba da iskoriste ovu pauzu da zajednički razviju i implementiraju skup zajedničkih bezbednosnih protokola za napredni dizajn i razvoj veštačke inteligencije koji su pod rigoroznom revizijom i nadgledanjem od strane nezavisnih spoljnih stručnjaka“, pišu oni. „Ovi protokoli treba da obezbede da su sistemi koji ih se pridržavaju bezbedni van razumne sumnje.