Bajdenova administracija traži informacije o bezbednosnim merama veštačke inteligencije

Bajdenova administracija traži informacije o bezbednosnim merama veštačke inteligencije

Administracija predsednika Džoa Bajdena želi jače mere za testiranje bezbednosti alata veštačke inteligencije kao što je ChatGPT pre nego što budu javno objavljeni, iako nije odlučila da li će vlada imati ulogu u vršenju provere.

Američko ministarstvo trgovine je u utorak saopštilo da će narednih 60 dana dati mišljenja o mogućnosti revizija veštačke inteligencije, procene rizika i drugih mera koje bi mogle da ublaže zabrinutost potrošača u vezi sa ovim novim sistemima.

„Sada postoji povećan nivo zabrinutosti, s obzirom na tempo inovacija, da se to mora dogoditi odgovorno“, rekao je pomoćnik sekretara za trgovinu Alan Davidson, administrator Nacionalne uprave za telekomunikacije i informacije.

NTIA, više savetnik nego regulator, traži povratne informacije o tome koje politike bi mogle učiniti komercijalne AI alate odgovornijim.

Bajden je prošle nedelje rekao tokom sastanka sa svojim savetom savetnika za nauku i tehnologiju da tehnološke kompanije moraju da osiguraju da su njihovi proizvodi bezbedni pre nego što ih puste u javnost.

Bajdenova administracija je takođe prošle godine predstavila niz dalekosežnih ciljeva usmerenih na sprečavanje štete uzrokovane porastom AI sistema, ali to je bilo pre objavljivanja ChatGPT-a, od startap kompanije OpenAI iz San Franciska, i sličnih proizvoda Majkrosofta i Gugla doveli su do šira svest o mogućnostima najnovijih AI alata koji mogu da generišu odlomke teksta nalik ljudima, kao i nove slike i video zapise.

„Ovi novi jezički modeli, na primer, su zaista moćni i imaju potencijal da stvore pravu štetu“, rekao je Davidson u intervjuu. „Mislimo da bi ovi mehanizmi odgovornosti zaista mogli da pomognu pružanjem većeg poverenja u inovacije koje se dešavaju.

Obaveštenje NTIA-e u velikoj meri se oslanja na traženje komentara o „samoregulatornim“ merama koje bi kompanije koje grade tehnologiju verovatno predvodile. To je u suprotnosti sa Evropskom unijom, gde zakonodavci ovog meseca pregovaraju o usvajanju novih zakona koji bi mogli da postave stroga ograničenja za AI alate u zavisnosti od toga koliko visok rizik predstavljaju.