Broj Deepfake videa povećava se za 900 posto svake godine

Broj Deepfake videa raste postotak svake godine
Broj Deepfake videa povećava se za 900 posto svake godine

Prema Svjetskom ekonomskom forumu (WEF), broj online deepfake videa povećava se za 900% svake godine. Nekoliko značajnih slučajeva deepfake prijevara dospjelo je na naslovnice vijesti, s izvješćima o uznemiravanju, osveti i kripto prijevarama. Istraživači tvrtke Kaspersky rasvijetlili su tri glavne sheme prijevara koje koriste deepfake kojih se korisnici trebaju čuvati.

Korištenje umjetnih neuronskih mreža, dubinskog učenja, a time i tehnika obmane deepfake, omogućuju korisnicima diljem svijeta da digitalno mijenjaju svoja lica ili tijela, proizvodeći tako realistične slike, video i audio materijale u kojima svatko može izgledati kao netko drugi. Ovi manipulirani videozapisi i slike često se koriste za širenje dezinformacija i druge zlonamjerne svrhe.

financijska prijevara

Deepfakeovi mogu biti predmetom tehnika društvenog inženjeringa koje koriste slike koje su stvorili kriminalci kako bi oponašali slavne osobe kako bi namamili žrtve u svoje zamke. Na primjer, umjetno stvoren video Elona Muska koji obećava visoke povrate od sumnjive sheme ulaganja u kriptovalute brzo se proširio prošle godine, uzrokujući da korisnici izgube novac. Prevaranti koriste slike slavnih za stvaranje lažnih videozapisa poput ovog, spajajući stare videozapise i pokrećući streamove uživo na platformama društvenih medija, obećavajući da će udvostručiti sve uplate u kriptovaluti koje su im poslane.

pornografski deepfake

Druga upotreba deepfakeova je narušavanje privatnosti pojedinca. Deepfake video zapisi mogu se stvoriti postavljanjem nečijeg lica na pornografski video, uzrokujući veliku štetu i nevolju. U jednom slučaju, na internetu su se pojavili deepfake video zapisi u kojima su lica nekih poznatih osoba postavljena na tijela pornografskih glumica u eksplicitnim scenama. Posljedica toga je da se u takvim slučajevima narušava ugled žrtava napada i krše njihova prava.

Poslovni rizici

Često se deepfakeovi koriste za ciljanje tvrtki za zločine kao što su iznuda od rukovoditelja tvrtke, ucjena i industrijska špijunaža. Na primjer, koristeći voice deepfake, cyber kriminalci su uspjeli prevariti upravitelja banke u UAE i ukrasti 35 milijuna dolara. U slučaju o kojem je riječ, bila je potrebna samo mala snimka glasa njegovog šefa da bi se napravio uvjerljivi deepfake. U drugom slučaju, prevaranti su pokušali prevariti najveću platformu za kriptovalute Binance. Izvršni direktor Binancea rekao je "Hvala!" o sastanku na Zoomu kojem nikada nije prisustvovao. Iznenadio se kada su mu počele stizati poruke. Napadači su uspjeli stvoriti deepfake s javnim slikama menadžera i implementirati ga govoreći u ime menadžera na internetskom sastanku.

FBI upozorava menadžere ljudskih resursa!

Općenito, svrha prevaranata koji koriste deepfake uključuje dezinformiranje i javno manipuliranje, ucjenu i špijunažu. Rukovoditelji ljudskih resursa već su na oprezu zbog korištenja deepfake-ova od strane kandidata koji se prijavljuju za rad na daljinu, prema upozorenju FBI-a. U slučaju Binance, napadači su koristili slike stvarnih ljudi s interneta za stvaranje deepfakeova, pa su čak dodavali njihove fotografije u životopise. Ako na ovaj način uspiju prevariti kadrovske menadžere i potom dobiti ponudu, naknadno mogu ukrasti podatke poslodavca.

Deepfake je i dalje skup oblik prijevare koji zahtijeva veliki budžet i sve je veći. Ranija studija tvrtke Kaspersky otkriva cijenu deepfakeova na darknetu. Ako običan korisnik pronađe softver na Internetu i pokuša ga lažirati, rezultat će biti nerealan, a prijevara očita. Malo ljudi vjeruje u deepfake niske kvalitete. Može odmah primijetiti kašnjenje u izrazu lica ili zamućen oblik brade.

Stoga kibernetički kriminalci trebaju velike količine podataka u pripremi za napad. Lajkajte fotografije, videozapise i glasove osobe koju želite oponašati. Različiti kutovi, svjetlina, izrazi lica igraju veliku ulogu u konačnoj kvaliteti. Potrebna je suvremena snaga računala i softver da bi rezultat bio realan. Sve to zahtijeva veliku količinu resursa, a samo mali broj kibernetičkih kriminalaca ima pristup tom resursu. Dakle, deepfake i dalje ostaje iznimno rijetka prijetnja, unatoč opasnostima koje može predstavljati, a samo mali broj kupaca to može priuštiti. Kao rezultat toga, cijena jedne minute deepfakea počinje od 20 dolara.

“Ponekad reputacijski rizici mogu imati vrlo ozbiljne posljedice”

Dmitry Anikin, viši stručnjak za sigurnost u tvrtki Kaspersky, kaže: “Jedna od najozbiljnijih prijetnji koju Deepfake predstavlja za tvrtke nije uvijek krađa korporativnih podataka. Ponekad reputacijski rizici mogu imati vrlo ozbiljne posljedice. Zamislite video koji prikazuje vašeg menadžera kako daje polarizirajuće primjedbe o (naizgled) osjetljivim temama. Za tvrtku bi to moglo dovesti do brzog pada cijena dionica. Međutim, iako su rizici od takve prijetnje iznimno visoki, šanse da budete hakirani na ovaj način iznimno su niske zbog cijene stvaranja deepfakea i vrlo malo napadača može stvoriti visokokvalitetni deepfake. Ono što možete učiniti u vezi s tim jest da budete svjesni ključnih značajki deepfake videa i da budete skeptični prema govornoj pošti i videozapisima koji vam dolaze. Također, pobrinite se da vaši zaposlenici razumiju što je deepfake i kako ga mogu uočiti. Na primjer, znakovi kao što su trzavi pokreti, promjene tona kože, čudno treptanje ili netreptanje bit će indikativni.”

Kontinuirano praćenje resursa darkneta pruža dragocjene uvide u industriju deepfakea, omogućujući istraživačima da prate najnovije trendove i aktivnosti aktera prijetnji u ovom prostoru. Prateći darknet, istraživači mogu otkriti nove alate, usluge i tržišta koja se koriste za stvaranje i distribuciju deepfakeova. Ova vrsta nadzora ključna je komponenta istraživanja deepfakea i pomaže nam poboljšati naše razumijevanje evoluirajućeg krajolika prijetnji. Usluga Kaspersky Digital Footprint Intelligence uključuje ovu vrstu nadzora kako bi svojim korisnicima pomogla da ostanu korak ispred kada su u pitanju prijetnje povezane s deepfakeom.