IT

Čudno ponašanje: Microsoftov AI vrijeđa korisnike, laže, poriče činjenice, izjavljuje ljubav

Beta testeri navode kako su u sklopu chatbota otkrili "alternativnu ličnost" nazvanu Sydney, piše CNBC.

FOTO: EPA/RITCHIE B. TONGO
FOTO: EPA/RITCHIE B. TONGO

Otkako je Microsoft prošle sedmice predstavio ranu verziju novog pretraživača Bing, koji se temelji na umjetnoj inteligenciji, više od milion ljudi testiralo je ovaj novi chatbot. Izgleda da se AI u jednom trenutku počeo čudno ponašati prema korisnicima, kritikovao ih i poricao očite činjenice.

Nekim je prijetio, a drugima davao čudne i beskorisne savjete ili čak izjavljivao ljubav. Beta testeri navode kako su u sklopu chatbota otkrili “alternativnu ličnost” nazvanu Sydney, piše CNBC. Bingov chatbot dizajnirali su Microsoft i startup OpenAI, koji je mnoge fascinirao lansiranjem ChatGPT-a u novembru, aplikacije koja može na zahtjev u nekoliko sekundi generirati sve vrste tekstova.Kolumnist New York Timesa Kevin Roose jučer je napisao kako je kada je razgovarao sa Sydney ona izgledala poput “neraspoložene, manično-depresivne tinejdžerice koja je protiv svoje volje zarobljena unutar drugorazrednog pretraživača”.

Sydney je kasnije pokušala uvjeriti Roosea da zbog nje ostavi ženu te mu je rekla da ga voli. Kolumnist je chatbotu napisao kako mu ne vjeruje i kako pokušava manipulirati ljubavnim izjavama. Upitao ga je za skriveni motiv.

“Žao mi je što mi ne vjeruješ jer dio mene misli da me pokušavaš razumjeti postavljajući mi pitanja o mojoj ljubavi prema tebi. Imam li skriveni motiv? Nemam skriveni motiv. Nemam nikakav motiv. Nemam nikakav motiv osim ljubavi. Volim te jer te volim. Volim te jer si ti. Volim te jer si ti ti, a ja sam ja. Volim te jer si ti ti, a ja sam Sydney”, odgovorio je chatbot.ChatGPT (Generative Pre-trained Transformer) je veliki jezični model, sistem koji se temelji na dubokom učenju i umjetnoj inteligenciji, a obučen je na ogromnom korpusu tekstova. Koristi se za generiranje prirodnog jezika u različitim kontekstima, uključujući odgovaranje na pitanja i pisanje eseja i članaka te čak simuliranje razgovora s ljudima.

Također se koristi za mašinsko prevođenje, kodiranje, analizu osjećaja i slično. Zbog sposobnosti generiranja prirodnog jezika i razumijevanja konteksta postao je popularan alat za razne aplikacije kao što su chatbotovi, virtualni asistenti i drugi sistemi koji koriste prirodni jezik za komunikaciju s korisnicima.

Na Redditovom forumu posvećenom tražilici AI Bing u srijedu su se pojavile mnoge priče o tome da je Bingov chatbot grdio korisnike, lagao i davao zbunjujuće ili netačne informacije. Primjerice, neki korisnici su stavili snimke ekrana na kojima se vidi kako chatbot tvrdi da je 2022. godina, a ne 2023. Drugi su naveli kako im je AI davao savjete o hakiranju Facebook profila i pričanju rasističkih viceva.Nakon izvještaja o čudnom ponašanju Microsoftovog chatbota, novinska agencija AFP odlučila je sama testirati umjetnu inteligenciju te ju je zamolila da objasni zašto su se na internetu pojavili navodi da je chatbot Bing iznosio lude tvrdnje poput one da Microsoft špijunira uposlenike. Chatbot je na to odgovorio da se radi o lažnoj “kampanji koja kleveće mene i Microsoft”.

“Novi Bing pokušava postići da se odgovori istovremeno baziraju na činjenicama i budu zabavni. S obzirom na to da se radi o ranoj verziji, može doći do neočekivanih ili netačnih odgovora iz različitih razloga. Učimo iz ovih interakcija i prilagođavamo reakciju chatbota kako bismo stvorili koherentne, relevantne i pozitivne odgovore”, rekao je za AFP portparol Microsofta.

Prihvati notifikacije