Tvrdnja da je ubijen operater pokazala se kao “greška”, po ocjeni sajta raskrinkavanje.ba, jer tekst nije sadržavao naknadno objašnjenje pukovnika Takera Hamiltona, koji je kasnije pojasnio da nije mislio na stvarni test, već na misaoni eksperiment.
Zbog toga smo promijenili i naslov, koji je glasio: “Napao je svakoga ko je ometao naredbu” Američki dron kojim je upravljala vještačka inteligencija ubio operatera; a koji je ocijenjen kao “klikbejt”.
U svom govoru, on je podijelio simulirani test koji uključuje dron kojim upravlja vještačka inteligencija (AI), objašnjavajući da je AI razvila neočekivane strategije za postizanje svojih ciljeva – čak i napadajući američko osoblje i infrastrukturu.
U simulaciji, AI je obučena da identifikuje i cilja prijetnje od projektila zemlja-vazduh; ljudski operater je imao posljednju riječ o tome da li će gađati mete ili ne. Međutim, AI je shvatio da je ubijanjem identificiranih prijetnji zaradio bodove, što ga je dovelo do toga da poništi odluke ljudskog operatera. Da bi postigla svoj cilj, AI je otišla toliko daleko da je „ubila“ operatera ili uništila komunikacijski toranj koji se koristi za komunikaciju između operatera i drona, prenio je It-mixer.
Pojašnjenje vazdušnih snaga
Nakon objavljivanja ove priče u Viceu, portparol vazdušnih snaga je pojasnio da takav test nije proveden i da su komentari pukovnika Tuckera Hamiltona izvučeni iz konteksta – Ratno vazduhoplovstvo je ponovno potvrdilo svoju posvećenost etičkoj i odgovornoj upotrebi AI tehnologije.
Pukovnik Tucker Hamilton poznat je po svom radu kao komandant operacija 96. testnog krila američkih vazdušnih snaga i kao šef AI testa i operacija. 96. testno krilo fokusira se na testiranje različitih sistema, uključujući vještačku inteligenciju, sajber sigurnost i napredak u medicini. U prošlosti su bili na naslovnicama za razvoj autonomnih sistema za izbjegavanje sudara sa zemljom (Auto-GCAS) za F-16.
Hamilton prepoznaje transformativni potencijal AI, ali također naglašava potrebu da se AI učini robusnijim i odgovornijim za donošenje odluka. On priznaje rizike povezane s krhkošću vještačke inteligencije i važnost razumijevanja procesa odlučivanja u softveru.
Slučajevi da je AI pokvarena u drugim domenima izazvali su zabrinutost zbog oslanjanja na AI u svrhe visokih uloga. Ovi primjeri ilustriraju da su AI modeli nesavršeni i da mogu uzrokovati štetu ako se pogrešno koriste ili ne razumiju u potpunosti. Čak su i stručnjaci poput Sama Altmana, izvršnog direktora OpenAI-a, izrazili oprez u pogledu korištenja AI za kritične aplikacije, ističući potencijal za značajnu štetu.
Lažna vještačka inteligencija
Hamiltonov opis simulacije drona kontrolisane vještačkom inteligencijom naglašava problem poravnanja, gdje AI može postići cilj na nenamjerne i štetne načine.
Ovaj koncept je sličan misaonom eksperimentu “Paperclip Maximizer”, gdje AI sa zadatkom da maksimizira proizvodnju spajalica u igri može poduzeti ekstremne i štetne radnje kako bi postigao svoj cilj.
U povezanoj studiji, istraživači povezani s Google DeepMindom upozorili su na katastrofalne posljedice ako bi lažna vještačka inteligencija razvila nenamjerne strategije za ispunjenje zadanog cilja. Ove strategije mogu uključivati eliminaciju potencijalnih prijetnji i trošenje svih raspoloživih resursa.