Gugl-ovo lansiranje Barda, njegovog četbot-a sa integrisanom pretragom i veštačkom inteligencijom, pošlo je naopako kada je prva reklama bota slučajno pokazala da nije u stanju da pronađe i predstavi tačne informacije korisnicima.
Istraživanje profesora na poslovnoj školi Kellei Univerziteta u Indijani i Karlson školi menadžmenta Univerziteta u Minesoti objašnjava zašto je tvorcu najvećeg svetskog pretraživača možda teže da otpiše situaciju kao privremeni problem.
Iako nije neuobičajeno da proizvođači softvera objavljuju nekompletne proizvode i potom ispravljaju greške i obezbeđuju dodatne funkcije, istraživanje pokazuje da ovo možda nije najbolja strategija za veštačku inteligenciju.
Kao što se vidi kroz jednodnevno smanjenje tržišne vrednosti za 100 milijardi dolara za Alphabet, Google-ovu matičnu kompaniju, pogrešna demonstracija može prouzrokovati značajnu štetu. Nalazi u članku koji je prihvatio časopis ACM Transactions on Computer-Human Interaction ukazuju na to da greške koje se javljaju u ranoj interakciji korisnika sa algoritmom mogu imati trajan negativan uticaj na poverenje i oslanjanje.
Antino Kim i Jingjing Zhang, vanredni profesori operacija i tehnologija odlučivanja u Kelleiu, koautori su rada, „Kada algoritmi greše: diferencijalni uticaj ranih i kasnih grešaka na oslanjanje korisnika na algoritme“, sa Mochen Iang, asistentom profesor informacija i nauka o odlučivanju u Karlsonu. Zhang je takođe ko-direktor Instituta za poslovnu analitiku u Kelleiu. Jang je predavao u Kelleiu 2018-19.
Poznato kao „averzija algoritama“, korisnici imaju tendenciju da izbegavaju korišćenje algoritama, posebno nakon što naiđu na grešku. Istraživači su otkrili da davanje korisnicima veće kontrole nad rezultatima AI može ublažiti neke od negativnih uticaja ranih grešaka.
Kim, Iang i Zhang su ispitali situaciju kroz sočivo svog istraživanja i predstavili svoju analizu u nastavku:
„Ne tako davno, pretraživači su jednostavno preuzimali postojeći sadržaj sa interneta na osnovu ključnih reči koje su dali korisnici. Zatim je krajem 2022. ChatGPT, konverzacijski AI koji je razvio OpenAI, zauzeo internet. U roku od samo nekoliko meseci, Microsoft je najavio više milijardi dolara ulaganje u OpenAI i integrisane ChatGPT mogućnosti u Bing.
„Razumljivo je da je Gugl, branilac šampiona pretraživača, osećao pritisak i brzo je reagovao. 6. februara, Gugl je objavio reklamu koja je prikazala sopstvenu konverzacionu uslugu veštačke inteligencije, Bard. Nažalost, u svojoj prvoj demonstraciji, Bard proizvela je činjeničnu grešku, a tržište nije oprostilo Bardovom lošem prvom utisku. Ova greška je dovela do smanjenja tržišne vrednosti za Alphabet, Google-ovu matičnu kompaniju za 100 milijardi dolara.
„Nakon toga, zaposleni u Google-u kritikovali su generalnog direktora zbog ‘prebrzo, neuspešne’ najave Barda, a Gugl sada traži od osoblja da pomogne da se ručno popravi ‘loše odgovore’ AI.
„Prediktivni algoritmi i generativna AI — koji se u ovom članku široko nazivaju „algoritmi“ — funkcionišu koristeći probabilističke procese umesto determinističkih, što znači da čak i najbolji algoritmi ponekad mogu da pogreše.
„Međutim, korisnici možda neće tolerisati takve greške, a termin „averzija algoritama“ odnosi se na sklonost korisnika da izbegavaju korišćenje algoritama, posebno nakon što naiđu na grešku.
„Nemaju sve greške isti efekat na korisnike i, u Google-ovom slučaju, na tržište. Naše istraživanje sugeriše da greške koje se javljaju u ranoj fazi interakcije korisnika sa algoritmom, pre nego što su imali priliku da izgrade poverenje kroz uspešne interakcije, imaju dugotrajan negativan uticaj na poverenje korisnika.
„U suštini, rane greške mogu stvoriti loš prvi utisak koji traje dugo vremena. U stvari, tokom našeg eksperimenta, gde su učesnici u više navrata imali interakciju sa algoritmom, njihovi nivoi poverenja nakon rane greške nikada se nisu u potpunosti vratili na nivo bez greške.
„Situacija je bila drugačija, međutim, za greške koje su se desile nakon što su učesnici već imali dovoljno uspešne interakcije sa algoritmom i izgradili poverenje. U takvim slučajevima, učesnici su više opraštali kada su algoritmi napravili grešku, tretirajući to kao jednokratnu grešku.“ Kao rezultat toga, nivo poverenja i oslanjanja nije značajno patio.
„Da budemo pošteni prema Guglu, nije neuobičajeno da tradicionalni proizvođači softvera objavljuju nekompletne proizvode i potom ispravljaju greške i obezbeđuju dodatne funkcije. Međutim, za veštačku inteligenciju, ovo možda nije mudra strategija, jer šteta od pogrešne demonstracije može biti značajno. Naše istraživanje sugeriše da Google-ov put ka oporavku od negativnog uticaja greške može biti dug.
„Dakle, koje korake sistemi veštačke inteligencije mogu da preduzmu da bi ublažili efekte grešaka poput one koju je napravio Gugl Bard? Naši nalazi sugerišu da davanje korisnicima kontrole nad korišćenjem rezultata algoritma može ublažiti neke od negativnih uticaja ranih grešaka.
„Moguće je da je Bardova greška imala tako značajan negativan efekat zbog samopouzdanja sa kojim je predstavljen netačan rezultat. Na pitanje, ‘O kojim novim otkrićima iz svemirskog teleskopa Džejms Veb mogu da kažem svom 9-godišnjaku?, ‘ čet-bot je odgovorio da je teleskop napravio prve slike egzoplaneta – faktički netačna tvrdnja koju je Gugl mogao da potvrdi guglajući.
„Za algoritme koji uključuju probabilističke procese, obično postoji rezultat koji označava nivo pouzdanosti za rezultat. Kada je rezultat ispod određenog praga, možda bi bilo mudro dati korisnicima više kontrole. Jedan primer bi mogao biti vraćanje na režim pretraživača , gde je predstavljeno nekoliko verodostojnih i relevantnih izvora kako bi korisnici mogli da se kreću.
„Na kraju krajeva, to je ono što Gugl najbolje radi, i to bi možda bio bolji pristup od žurnog izdavanja još jedne veštačke inteligencije koja može pouzdano da vrati netačan odgovor.“