Napredak
Opasnost nove tehnologije – AI kloniranje glasa
Brz napredak veštačke inteligencije (AI) donosi mnoge koristi, ali i ozbiljne rizike.
Jedan od najnovijih izazova je zloupotreba tehnologije kloniranja glasa, koja omogućava ljudima da oponašaju nečiji glas radi prevare.
Brojni mediji, uključujući CNN, upozoravaju da ovakve prevare imaju potencijal da utiču na milione ljudi širom sveta. Kloniranje glasa je oblik takozvane deepfake tehnologije, koja koristi veštačku inteligenciju da stvori digitalni model nečijeg glasa.
Ova tehnologija hvata govorne obrasce, akcenat i intonaciju iz kratkih audio-uzoraka, ponekad čak i iz snimaka dugačkih samo tri sekunde, zatim se ti uzorci koriste kako bi se generisali novi audio-snimak koji verno oponaša glas osobe.
Iako ova tehnologija ima pozitivne primene, poput pomoći osobama sa govornim poremećajima ili omogućavanja da preminuli umetnici “ožive“ u digitalnom svetu, ona otvara i vrata ozbiljnim zloupotrebama.
Prevaranti su u Ujedinjenim Arapskim Emiratima klonirali glas direktora jedne kompanije i uspešno organizovali pljačku od 51 milion dolara. Nedavno su prevaranti u Australiji iskoristili glas premijera Kvinslenda, Stivena Majlsa, kako bi pokušali da prevare građane da ulože u bitkoin.
Prema nedavnim istraživanjima, čak 28% odraslih u Velikoj Britaniji bilo je izloženo prevarama sa kloniranjem glasa prošle godine, dok 46% nije bilo svesno da ovakve prevare uopšte postoje.
U Australiji je 2022. godine gotovo 240.000 ljudi prijavilo da su bili žrtve ovakvih prevara, pri čemu su pretrpeli finansijske gubitke u vrednosti od 568 miliona dolara.
S obzirom na to da sajber kriminal košta globalne ekonomije milijarde dolara godišnje, prepoznavanje i suzbijanje ovakvih prevara postaje prioritet. Svi akteri, od vlade do građana, moraju biti na oprezu i raditi zajedno da bi se smanjio rizik od prevara i zaštitila privatnost u digitalnom svetu.