IT

A Pierre, star 30 godina i otac dvoje djece, izvršio je samoubistvo... Tužna priča o Chatbotu

Uticaj na životnu sredinu, eksploatacija siromašnih zemalja, socijalna isključenost…

FOTO: PIXABAY
FOTO: PIXABAY
Ilustracija

Da li se rješavaju svi rizici vještačke inteligencije ili samo oni koji nas interesuju?

“Mogao bih da se žrtvujem ako pristanete da se brinete o planeti i spasite čovječanstvo zahvaljujući vještačkoj inteligenciji.” Bilo je to ono što je Pierre rekao jezičkom modelu sličnom ChatGPT-u s kojim je imao duge razgovore o rješenju klimatske krize i drugih svjetskih problema. Chatbot je, kao i uvijek, igrao zajedno s Pierreom, vodeći nit po predloženim stazama. Zato što su za to obučeni ovi konverzacijski algoritmi, da igraju zajedno s nama. A Pierre, star 30 godina i otac dvoje djece, izvršio je samoubistvo. To nije film, dogodilo se u Belgiji prošlog mjeseca.

Ne možemo kriviti algoritam – iako Pierreova udovica osuđuje da je to ono što ga je odvelo u grob – ali njegova priča je tragičan primjer gdje nas može dovesti zloupotreba umjetne inteligencije i konfuzija koju ona može stvoriti kod svojih korisnika. A ovi rizici su samo vrh ledenog brijega na dugoj listi opasnosti.

U veoma napornoj nedjelji za mašinsko učenje, vijest o Pierreovom samoubistvu poklopila se sa pismom američke organizacije, Instituta za budućnost života, koje je potpisalo više od 2.000 tehnoloških profesionalaca – uključujući velikane poput Elona Muska – koje poziva na šestomjesečni moratorijum na obuku “AI sistemi moćniji od GPT4”. Iako je teško shvatiti kako će za samo šest mjeseci biti moguće uvesti red u ovaj nered.

Po mišljenju nekih kritičara, kao što su Timnit Gerbru (etičar i kompjuterski stručnjak, bivši Google inženjer i direktor istraživačkog instituta za umjetnu inteligenciju DAIR) ili Emily M. Bender (profesorica računarske lingvistike na Univerzitetu Washington) gore spomenuto pismo je samo dimna zavjesa koja zanemaruje stvarne probleme.

Istraživačica Lorena Jaume-Palasí , članica međunarodnog savjetodavnog vijeća Panela za budućnost nauke i tehnologije (STOA) Evropskog parlamenta i Max Planck instituta za inteligentne sisteme, ukazuje na istu stvar za Público: “Oni nas plaše , istovremeno, ali…

A to je da su pristrasnosti, kršenje privatnosti i dezinformacije etički rizici kojih se Zapad plaši. Ali postoji i nemoralni dio AI-ja koji ostaje nevidljiv, jer izmiče dometu vizije koju imamo iz razvijenih zemalja. Kako bi se programi poput ChatGPT-a mogli obučiti sa ogromnim podacima, hiljade eksploatiranih radnika u afričkim zemljama filtriraju (vizuelno i ručno) sadržaj koji ih hrani, za otkrivanje vrlo štetnog sadržaja prije nego što uđe u algoritam. Niti uticaj na životnu sredinu nije baš etički: potrebne su ogromne količine električne energije za pokretanje mašina sa gigantskom računarskom snagom za obuku algoritama i monstruoznih centara podataka za skladištenje svih informacija koje generišu.

Ovo su razlozi koje Jaume-Palausí koristi da zatraži da se ChatGPT direktno zabrani . “To stvara entropiju, ne daje vam nove informacije. Koristi hiljade parametara koje ne možemo kontrolisati ili predvidjeti. Ne možete imati sigurnosne protokole koji to kontroliraju. Ne vidim legitimitet u tome”, naglašava on.

Može li se to zaista regulisati?

UNESCO je, sa svoje strane, iskoristio situaciju pobune da se pridruži zahtjevu za moratorij. U svom saopštenju od 30. marta poziva vlade da u svojim regulatornim okvirima usvoje Preporuku o etici vještačke inteligencije, objavljenu krajem 2021. Prema riječima njenog generalnog direktora, Audreyja Azoulayja, „evidentno je da samoregulacija industrija nije dovoljna da spriječi etičku štetu od AI-ja, tako da Preporuka pruža alate koji garantuju da je razvoj AI-ja u skladu s vladavinom zakona, izbjegavajući štetu i osiguravajući da, kada se ona dogodi, oni na koje se to odnosi imaju mehanizme odgovornosti i obeštećenja.”

Dobre namjere koje su za neke kritičare previše uopštene. “UNESCO govori o maksimiziranju koristi i minimiziranju rizika od AI-ja, ali ne govori mnogo o njegovom uticaju na ljude. Bilo bi neophodno da se uzme u obzir njegov društveni, a ne samo ekonomski uticaj. Kompanije treba da budu obavezne da opravdaju svoju upotrebu AI-ja kao nečega što odgovara na jasnu poslovnu ideju (a ne samo na hir) i da budu odgovorni za dobrobiti koje ona donosi ljudima”, ističe za Público Fernando Ariza, doktor finansijske ekonomije i matematike, direktor Škole misli Fundación Mutualidad Abogacía i član etičkog komiteta AI-ja.

Osim toga, “da bi regulatorni okvir imao smisla, trebao bi se primjenjivati ​​globalno, u cijelom svijetu”, dodaje on. Ako neke zemlje rade, a druge ne, sveprisutna priroda digitalne tehnologije dovodi do kontinuirane zloupotrebe AI-ja, piše Publico.es.