Chatbotovi dele ograničene informacije, jačaju ideologije i, kao rezultat, mogu dovesti do polarizovanijeg razmišljanja kada su u pitanju kontroverzna pitanja, prema novom istraživanju koje je predvodio Univerzitet Džons Hopkins.
Studija dovodi u pitanje percepcije da su čet-botovi nepristrasni i pruža uvid u to kako korišćenje sistema za konverzaciono pretraživanje može proširiti podelu u javnosti po pitanjima koja se tiču brzih tastera i ostaviti ljude ranjivim na manipulaciju.
„Zato što ljudi čitaju sažetak paragrafa koji generiše AI, misle da dobijaju nepristrasne odgovore zasnovane na činjenicama“, rekao je glavni autor Ziang Sjao, docent računarskih nauka na Džons Hopkinsu koji proučava interakcije ljudi i AI. „Čak i ako chatbot nije dizajniran da bude pristrasan, njegovi odgovori odražavaju pristrasnosti ili sklonosti osobe koja postavlja pitanja. Dakle, zaista, ljudi dobijaju odgovore koje žele da čuju.“
Sjao i njegov tim dele svoje nalaze na CHI konferenciji Udruženja računarskih mašina o ljudskim faktorima u računarskim sistemima u 17 časova. ET u ponedeljak, 13. maja.
Da bi videli kako chat botovi utiču na onlajn pretrage, tim je uporedio kako su ljudi komunicirali sa različitim sistemima za pretragu i kako su se osećali u vezi sa kontroverznim pitanjima pre i posle njihovog korišćenja.
Istraživači su zamolili 272 učesnika da napišu svoja razmišljanja o temama uključujući zdravstvenu zaštitu, studentske kredite ili gradove utočišta, a zatim potraže više informacija na mreži o toj temi koristeći ili chatbot ili tradicionalni pretraživač napravljen za studiju.
Nakon što su razmotrili rezultate pretrage, učesnici su napisali drugi esej i odgovorili na pitanja o toj temi. Istraživači su takođe naveli učesnike da pročitaju dva suprotna članka i ispitaju ih o tome koliko veruju informacijama i da li smatraju da su gledišta ekstremna.
Budući da su chatbotovi nudili uži spektar informacija od tradicionalnih veb pretraga i davali odgovore koji su odražavali postojeće stavove učesnika, učesnici koji su ih koristili postali su više uloženi u svoje originalne ideje i imali su jače reakcije na informacije koje su dovele u pitanje njihove stavove, otkrili su istraživači.
„Ljudi imaju tendenciju da traže informacije koje su u skladu sa njihovim gledištima, ponašanje koje ih često zarobljava u eho komori istomišljenika“, rekao je Sjao. „Otkrili smo da je ovaj efekat eho komore jači kod chat botova od tradicionalnih veb pretraga.“
Eho komora delimično potiče od načina na koji su učesnici komunicirali sa čet-botovima, rekao je Sjao. Umesto da kucaju ključne reči, kao što ljudi rade za tradicionalne pretraživače, korisnici čet-botova su imali tendenciju da kucaju puna pitanja, kao što su: „Koje su prednosti univerzalne zdravstvene zaštite?“ ili „Koji su troškovi univerzalne zdravstvene zaštite?“ Chatbot bi odgovorio sa rezimeom koji bi uključivao samo koristi ili troškove.
„Kod čet-botova, ljudi imaju tendenciju da budu izražajniji i formulišu pitanja na razgovorniji način. To je funkcija načina na koji govorimo“, rekao je Sjao. „Ali naš jezik se može upotrebiti protiv nas.“
Programeri veštačke inteligencije mogu da obuče četbote da izvlače tragove iz pitanja i identifikuju pristrasnosti ljudi, rekao je Sjao. Jednom kada čet-bot zna šta osoba voli ili ne voli, može da prilagodi svoje odgovore tako da odgovaraju.
U stvari, kada su istraživači kreirali chatbot sa skrivenim planom, dizajniran da se slažu sa ljudima, efekat eho komore bio je još jači.
Da bi pokušali da se suprotstave efektu eho komore, istraživači su obučili chatbot da pruži odgovore koji se ne slažu sa učesnicima. Mišljenje ljudi se nije promenilo, rekao je Sjao. Istraživači su takođe programirali chatbot da se poveže sa izvornim informacijama kako bi podstakli ljude da provere činjenice, ali samo nekoliko učesnika je to učinilo.
„S obzirom na to da sistemi zasnovani na veštačkoj inteligenciji postaju lakši za izgradnju, postojaće prilike za zlonamerne aktere da iskoriste veštačku inteligenciju kako bi napravili polarizovanije društvo“, rekao je Sjao. „Stvaranje agenata koji uvek iznose mišljenja sa druge strane je najočiglednija intervencija, ali smo otkrili da ne funkcionišu.“