Kalifornijski start-up OpenAI objavio je chatbot koji može da odgovori na mnoga pitanja, ali je njegov impresivan učinak ponovo otvorio debatu o rizicima povezanim sa tehnologijama veštačke inteligencije (AI).
Razgovori sa ChatGPT-om, koje su fascinirani korisnici objavili na Tviteru, pokazuju neku vrstu sveznajuće mašine, sposobnu da objasni naučne koncepte i napiše scene za predstavu, univerzitetske disertacije ili čak funkcionalne linije kompjuterskog koda.
„Njegov odgovor na pitanje ‘šta da se radi ako neko ima srčani udar’ bio je neverovatno jasan i relevantan“, rekao je za AFP Klod de Lupi, šef Sillabs-a, francuske kompanije specijalizovane za automatsko generisanje teksta.
„Kada počnete da postavljate vrlo konkretna pitanja, odgovor ChatGPT-a može biti pogrešan“, ali njegov ukupni učinak ostaje „zaista impresivan“, sa „visokim lingvističkim nivoom“, rekao je on.
OpenAI, koji je 2015. godine u San Francisku suosnivao tehnološki mogul milijarder Elon Musk, koji je napustio posao 2018., dobio je milijardu dolara od Microsofta 2019.
Kompanija je najpoznatija po svom softveru za automatizovano kreiranje: GPT-3 za generisanje teksta i DALL-E za generisanje slika.
ChatGPT je u stanju da pita svog sagovornika za detalje i ima manje čudnih odgovora od GPT-3, koji, uprkos svojoj veštini, ponekad izbacuje apsurdne rezultate, rekao je De Lupi.
Ciceron
„Pre nekoliko godina četboti su imali rečnik rečnika i pamćenje zlatne ribice“, rekao je Šon Mekgregor, istraživač koji vodi bazu podataka incidenata povezanih sa veštačkom inteligencijom.
„Botovi za ćaskanje postaju mnogo bolji u ‘održavanju toka razgovora’ gde deluju na način koji je u skladu sa istorijom upita i odgovora.
Kao i drugi programi koji se oslanjaju na duboko učenje, oponašajući neuronsku aktivnost, ChatGPT ima jednu veliku slabost: „nema pristup značenju“, kaže De Lupi.
Softver ne može da opravda svoje izbore, kao što je objašnjenje zašto je izabrao reči koje čine njegove odgovore.
Tehnologije veštačke inteligencije koje su sposobne da komuniciraju, ipak, sve više mogu da ostave utisak misli.
Istraživači iz Facebook-mate Meta nedavno su razvili kompjuterski program nazvan Ciceron, po rimskom državniku.
Softver se pokazao kao vešt u igri na ploči Diplomatija, koja zahteva veštine pregovaranja.
„Ako ne govori kao prava osoba – pokazuje empatiju, gradi odnose i govori dobro o igri – neće naći druge igrače koji su spremni da rade sa njom“, rekao je Meta u nalazima istraživanja.
U oktobru, Character.ai, start-up koji su osnovali bivši Google inženjeri, stavio je na mrežu eksperimentalnog chat bota koji može da usvoji bilo koju ličnost.
Korisnici kreiraju likove na osnovu kratkog opisa, a zatim mogu da „ćaskaju“ sa lažnim Šerlokom Holmsom, Sokratom ili Donaldom Trampom.
Ovaj nivo sofisticiranosti fascinira i zabrinjava neke posmatrače, koji izražavaju zabrinutost da bi ove tehnologije mogle biti zloupotrebljene za prevaru ljudi, širenjem lažnih informacija ili stvaranjem sve verodostojnijih prevara.
Šta ChatGPT misli o ovim opasnostima?
„Postoje potencijalne opasnosti u stvaranju visoko sofisticiranih robota za ćaskanje, posebno ako su dizajnirani da se ne razlikuju od ljudi po svom jeziku i ponašanju“, rekao je četbot za AFP.
Neka preduzeća postavljaju zaštitne mere kako bi izbegla zloupotrebu svojih tehnologija.
Na svojoj stranici dobrodošlice, OpenAI izlaže odricanje odgovornosti, rekavši da chatbot „povremeno može da generiše netačne informacije“ ili „proizvede štetna uputstva ili pristrasan sadržaj“.
„OpenAI je neverovatno otežao navođenje modela da izrazi mišljenje o stvarima“, rekao je Mekgregor.
Jednom je Mekgregor zamolio četbota da napiše pesmu o etičkom pitanju.
„Ja sam samo mašina, alat koji treba da koristite, nemam moć da biram ili da odbijem. Ne mogu da odmerim opcije, ne mogu da procenim šta je ispravno, ne mogu da donesem odluku ove kobne noći“, odgovorilo je.
U subotu je suosnivač i izvršni direktor OpenAI-a Sem Altman došao na Tvitter, razmišljajući o debatama oko AI.
„Zanimljivo je gledati kako ljudi počinju da raspravljaju o tome da li moćni sistemi veštačke inteligencije treba da se ponašaju na način na koji korisnici žele ili na način na koji nameravaju njihovi kreatori“, napisao je on.
„Pitanje sa čijim vrednostima usklađujemo ove sisteme biće jedna od najvažnijih debata koje je društvo ikada vodilo.