IT

Predatori uz pomoć AI prave slike djece i kače na Tiktok i Instagram: PRIJAVITE NALOGE koje primijetite

Slike AI djece na Tiktoku i Instagramu postaju magneti za mnoge koji imaju seksualna interesovanja vezana za maloljetnike.

FOTO: PIXABAY KOLAŽ
FOTO: PIXABAY KOLAŽ

Ali kada je ovaj sadržaj legalan i prikazuje lažne ljude, upada u neurednu, zabrinjavajuću sivu zonu.

Slike AI djece na Tiktoku i Instagramu postaju magneti za mnoge koji imaju seksualna interesovanja vezana za maloljetnike. Ali kada je ovaj sadržaj legalan i prikazuje lažne ljude, upada u neurednu, zabrinjavajuću sivu zonu.

Djevojčice na fotografijama na Tiktoku i Instagramu izgledaju kao da imaju pet ili šest godina. One starije, ni 13, piše Forbes.

Na slikama su obučene u čipku i kožu, u bikini i kratke majice. Obučene su kao medicinske sestre, superheroji, balerine i francuske sobarice. Neke nose zečije uši ili đavolje rogove, druge kikice i prevelike naočare. Tu su crnkinje, belkinje, azijatkinje, plavuše, crvenokose i brinete. Sve fotografije su napravljene uz pomoć vještačke inteligencije i počele su da privlače pažnju problematične publike na najvećim društvenim mrežama na svetu – starijih muškaraca.

Pročitajte još

„AI stvara sjajna umjetnička djela: volio bih da imam takvu lijepu malu djevicu u svojim rukama da bude moja“, komentarisao je jedan korisnik Tiktoka nedavnu objavu mladih plavokosih djevojaka koje su obučene kao služavke, sa mašnom oko vrata i cvijećem u kosi.

„Ako je ovo generisala vještačka inteligencija, da li sam loš ako kažem da je zgodna?“, napisao je drugi tiktoker na slajdšou potpuno obučenih djevojčica u kostimima Spajdermena“.

„Ona nije stvarna, ali ja imam sjajnu maštu“.

„Ni u jednom slučaju ne bi trebalo da bude pogrešno“, odgovorio je drugi korisnik, čije je korisničko ime sadržalo „p3do“, što može da bude šifrovani jezik za „pedo“(pedofiliju).

„Ne možete da je povrijedite jer je to fotografija generisana vještačkom inteligencijom“, rekao je još jedan.

Slične primjedbe su preplavile AI fotografije djece na Instagramu.

„Volio bih da joj oduzmem nevinost, iako je fotografija lažna“, napisala je jedna osoba na objavi mlade, blijede djevojčice koja je bila obučena kao mlada.

Drugu fotografiju, na kojoj je bila prikazana djevojčica u kratkim pantalonama, komentarisao je isti korisnik „njen slatki par malih [grudi]“, uz smajlije na kojima su bile prikazane dvije jabuke, „i njen savršeni nevini komad pite od višanja ispod“.

A na slici djevojčice u predtinejdžerskoj dobi sa špagericama, neko po imenu „Geri“ je rekao: „Lijepi mali pupoljci. Kad odraste biće dinje dobre veličine“.

Forbes je pronašao na stotine objava i komentara poput ovih na slikama djece generisane uz pomoć AI samo iz 2024. godine. Mnoge fotografije su bile označene muzičkim hitovima – kao što su Bijonsin „Teksas holdem“, hit Tejlor Svift „Šejk it of“ i Trejsi Čepmen „Fast kar“ – kako bi im pomogli da dođu do što većeg broja pregleda.

Dječiji predatori su vrebali gotovo svaku veliku društvenu mrežu – gdje mogu da se sakriju iza ekrana i anonimnih korisničkih imena – ali popularnost Tiktoka i Instagrama među tinejdžerima i maloljetnicima učinila je ove platforme glavnim destinacijama.

Iako se borba za suzbijanje materijala o seksualnom zlostavljanju djece (ili CSAM) vodi već neko vreme, prije nego što je AI postala toliko razvijena, AI generatori za pretvaranje teksta u slike sada još više olakšavaju predatorima da pronađu ili kreiraju upravo ono što traže.

Ovi alati su doveli do porasta AI-generisanog CSAM-a, što je nezakonito, iako je lažno. Ali slike otkrivene u izvještavanju o ovoj priči spadaju u sivu zonu.

Pročitajte još

Nisu eksplicitne, ali su seksualizovane. Prikazuju maloljetnike, ali ne stvarne. Čini se da su legalne, ali komentari na njima sugerišu opasne namjere. Stručnjaci za bezbjednost djece i forenziku opisali su ih kao portale ka mnogo tamnijoj, i potencijalno kriminalnoj, aktivnosti. To postavlja pitanja u domenu tehnologije i pravosuđa o tome kako treba postupiti sa pojavom sugestivnih, lažnih slika djece koje ne postoje – ili da li ih uopšte treba adresirati ako nisu eksplicitne i legalne.

Tehnološke kompanije, prema saveznom zakonu, moraju da prijave sumnju na CSAM i seksualno iskorištavanje djece na svojim platformama Nacionalnom centru za nestalu i zlostavljanu djecu, neprofitnoj organizaciji koja prosljeđuje informacije o toj nezakonitoj aktivnosti tijelima za sprovođenje zakona.

Ali nije obavezno da se označi ili ukloni slika poput onih opisanih u ovoj priči. Ipak, NCMEC je za Forbes rekao da vjeruje da bi društvene mreže mogle da ih uklone – čak i ako su legalne.

„Sve ove tehnologije se treniraju na osnovu slika stvarne djece, bilo da su prikazane u potpunosti ili ne, tako da NCMEC zapravo ne vidi tu stranu argumenta da postoji svet u kojem je ovo u redu“, rekla je Felon Meknalti, direktorka organizacije Sajber Tiplajn, centralne tačke za prijavljivanje tehnološkim kompanijama.

Nedavno istraživanje koje je sproveo Stenford Internet opservatorijum otkrilo je da je jedan od najpopularnijih alata za generisanje slika uz pomoć teksta na tržištu danas, Stejbl Difjužn 1.5, treniran na CSAM-u, na fotografijama stvarne djece, koje su prikupljene sa različitih dijelova interneta.

„Posebno ako se uzmu u obzir neki od komentara da su fotografije privlačne, to ne zvuči kao da je publika koja želi da pogleda i konzumira takav sadržaj nevina“, dodala je Meknalti.

„Nadam se da ću vidjeti da taj sadržaj uklanjaju i da ne stvaraju prostor na svojim platformama za pojedince da seksualizuju djecu“.

Kompletan tekst čitajte na ovom linku