IT

NI TAKVA ZAŠTITA VIŠE NIJE SIGURNA Prevarili glasovnu autentifikaciju nakon samo šest pokušaja!

Naučnici sa Univerziteta u Vaterlou otkrili su metodu koja može zaobići sistem glasovne autentifikacije sa stopom uspješnosti do 99 odsto nakon samo šest pokušaja.

FOTO: ILUSTRACIJA/UNSPLASH
FOTO: ILUSTRACIJA/UNSPLASH

Sistem glasovne autentifikacije, koji kompanijama omogućavaju provjeru identiteta svojih klijenata putem „glasovnog otiska“, sve se češće koriste u oblastima poput daljinskog bankarstva, pozivnih centara i drugih, gdje je bezbjednost od ključnog značaja.

Međutim, nova studija sugeriše da ovi sistemi nisu pretjerano bezbijedni, piše „TechXplore“.

Andrej Kasis, kandidat za doktorsku disertaciju iz oblasti računarske bezbjednosti i privatnosti na Univerzitetu u Vaterlou i glavni autor studije, objasnio je proces glasovne autentifikacije. Prilikom registracije u sistem glasovne autentifikacije, od korisnika se traži da ponove određenu frazu, a sistem na osnovu te fraze izvlači jedinstveni glasovni otisak koji čuva na serveru za buduće provjere.

Kada je počela upotreba glasovnih otisaka, zlonamjerni akteri su brzo shvatili da mogu da koriste softver da naprave takozvane „deepfake“ snimke, kako bi napravili uvjerljive kopije glasa svoje mete, koristeći svega pet minuta snimljenog audio materijala. Kao odgovor na to, developeri su uveli mjere zaštite koje mogu provjeriti da li je uzorak govora kreiran od strane čovjeka ili mašine.

Naučnici sa Univerziteta u Vaterlou su, ipak, razvili metodu koja može izbjeći ove mjere zaštite i uspješno prevariti većinu sistema glasovne autentifikacije nakon samo šest pokušaja. Identifikovali su indikatore u „deepfake“ audio zapisima koji pokazuju da je riječ o računarski generisanom materijalu, a potom su napravili program koji uklanja ove indikatore, stoga nije bilo moguće razlikovati lažan i pravi glas.

U skorašnjem testiranju protiv Amazonovog sistema glasovne autentifikacije, Amazon Connect, postigli su stopu uspjeha od 10 odsto za napad koji traje četiri sekunde, a ta stopa je porasla na preko 40 odsto za manje od 30 sekundi, prenosi „BenchMark“. Kada su ciljali na neke od manje sofisticiranih sistema glasovne autentifikacije, postigli su stopu uspjeha do 99 odsto nakon samo šest pokušaja.

Kasis upozorava da iako je glasovna autentifikacija bolja od nepostojanja dodatnih mjera sigurnosti, postojeće mjere koje treba da spriječe lažiranje glasa su kritično neadekvatne, prenose Nezavisne.