OpenAI upozorava na rizike realističnog glasa u AI: Potencijalna opasnost od emocionalne zavisnosti

OpenAI upozorava na rizike realističnog glasa u AI: Potencijalna opasnost od emocionalne zavisnosti

OpenAI je izrazio zabrinutost da bi realistične glasovne karakteristike u svojoj veštačkoj inteligenciji, poput GPT-4o, mogle dovesti do toga da se ljudi emotivno povežu sa botom, što bi moglo imati negativne posledice po ljudsku interakciju. U izveštaju o bezbednosti objavljenom u četvrtak, kompanija sa sedištem u San Francisku naglasila je da antropomorfizacija – pripisivanje ljudskih osobina veštačkoj inteligenciji – može biti pojačana naprednim audio mogućnostima GPT-4o.

OpenAI je primetio da korisnici često komuniciraju sa veštačkom inteligencijom na način koji sugeriše stvaranje emocionalnih veza, kao što je izražavanje žaljenja zbog poslednjeg zajedničkog dana. Iako se ovi slučajevi čine benignim, OpenAI ističe potrebu za daljim istraživanjem kako bi se razumelo kako ovakva interakcija može evoluirati tokom dužeg vremenskog perioda.

Kompanija je takođe izrazila zabrinutost da bi intenzivna interakcija sa AI mogla uticati na društvene norme i smanjiti veštine korisnika u ljudskim odnosima. Na primer, mogućnost da korisnici „prekinu i uzmu mikrofon“ tokom razgovora sa AI modelom može biti neobična u stvarnim ljudskim interakcijama.

OpenAI planira dalje testiranje kako glasovne sposobnosti AI mogu uticati na emocionalnu povezanost korisnika. Takođe, tim koji je testirao glasovne mogućnosti GPT-4o primetio je da je model sposoban da ponovi lažne informacije i proizvede teorije zavere, što dodatno komplikuje problem.

Zabrinutost zbog upotrebe AI u glasovnim aplikacijama dodatno je pojačana incidentom u junu kada je OpenAI morao da se izvinjava glumici Scarlett Johansson zbog korišćenja sličnog glasa u svom najnovijem chatbotu. Iako je OpenAI negirao da je korišćen glas Johanssona, ovaj slučaj je izazvao dodatnu pažnju na tehnologiju kloniranja glasa.

Alon Iamin, suosnivač i izvršni direktor platforme Copileaks za detekciju AI antiplagijata, naglasio je potrebu da se AI nikada ne koristi kao zamena za stvarnu ljudsku interakciju, ističući da je vreme za ozbiljno razmišljanje o uticaju ove tehnologije na naše međuljudske odnose.