Roditelji na meti deepfake prevare: Šta učiniti ako postanete žrtva? 

Pre nekoliko dana, žena iz Arizone upozorila je roditelje širom sveta na rasprostranjenu deepfake prevaru koja koristi veštačku inteligenciju da oponaša glas vašeg deteta i ubedi vas da je kidnapovano. U međuvremenu se još roditelja oglasilo sa istim svedočanstvom.

Vreme Čitanja: 3 min

deepfake scams

Ilustracija: Lenka Tomašević

Lažna otmica koja koristi AI da prevari roditelje   

Bizarna prevara koja lažira otmicu putem telefonskog poziva i koja zvuči izuzetno uverljivo zahvaljujući veštačkoj inteligenciji, uzela je maha širom sveta. Za razliku od drugih zloupotreba ove tehnologije, konkretno deepfake-ova, ovaj slučaj je još štetniji i verodostojniji. Odnosno, kada vidite snimak političara koji izgleda kao da govori besmislice, možete to odbaciti i reći da je lažan. To ne povređuje vas lično i često je moguće proveriti činjenice i potvrditi da je reč o deepfake sadržaju. 

Međutim, potpuno je drugačije kada čujete glas sopstvenog deteta preko telefona kako tvrdi da je u opasnosti. Nemoguće je zamisliti roditelja koji bi na to odgovorio: “Ne verujem da si otet,” i prekinuo vezu. 

Lica koja zloupotrebljavaju tehnologiju na ovaj način su očigledno svesni potencijala emocionalne manipulacije i koriste ga da izvuku novac od prestrašenih roditelja. 

Za ovu prevaru prvobitno se saznalo od majke iz Arizone, koja je svedočila prošle nedelje pred Kongresom o tome kako je postala žrtva deepfake prevare koja je koristila veštačku inteligenciju da oponaša glas njene ćerke. 

Naime, dobila je poziv sa nepoznatog broja i čula svoju ćerku kako plače i govori da je oteta. Kidnaperi su zatim preuzeli telefon i tražili milion dolara, pre nego što su smanjili sumu na 50.000 dolara. 

“Kako su dobili njen glas? Kako su dobili njeno plakanje, njene jedinstvene emocionalne reakcije? Kada vas dete nazove upomoć, da li ćete prekinuti vezu i reći: ‘Ne verujem da si to stvarno ti’? Da li je ovo naša nova normalnost?”, upitala je majka. 

Srećom, ona je uspela da stupi u kontakt sa svojom ćerkom pre nego što je platila otkupninu, a i drugi roditelji koji su bili žrtve iste vrste prevare pottvrdili su isto. 

Kako funkcioniše ova deepfake prevara?   

Profesor sa Berkeley koledža i stručnjak za veštačku inteligenciju Hany Farid objasnio je za Inside Edition kako je ovaj proces uopšte moguć: 

“Na primer, mogu pronaći primer nečijeg glasa tako što ću jednostavno pretražiti njegovo ime na YouTube-u, što ne traje više od pet sekundi. Zatim to postavljam na veb servis za koji plaćam 5 dolara mesečno. Za oko 30 sekundi, klonirao sam vaš glas, otkucao sam šta želim da kažete i dobio sam snimak zvuka nazad. Za sve to mi je trebalo oko pet minuta,” objasnio je profesor. 

Sada, kako su prevaranti koristili veštačku inteligenciju da izvedu lažnu otmicu? 

Kako je majka navela prilikom svedočenja, njena kćer nema naloge na društvenim mrežama, ali postoje intervjui na internetu o školi i sportu, za koje pretpostavlja da su prevaranti iskoristili za oponašanje glasa. 

Dok se to dešavalo, njena kćer je bila na skijanju i, srećom, javila se kada ju je majka nazvala jer, u situacijama poput ove, svaki minut je važan. Nakon ovog incidenta, majka koja je bila žrtva prevare odlučila je da je njena misija da podigne svest o ovoj prevari pre nego što još roditelja upadne u istu zamku. 

Prema njenom svedočenju, otmičari su zahtevali da im se isplati suma u gotovini i da ona pristane da je pokupe kombijem radi preuzimanja. Podsećamo, ovo nije pojedinačni primer već je do sada isti scenario prijavljen nekoliko puta. 

“Više nisam uplašena, sada sam besna na te muškarce koji su sposobni za tako grozni pokušaj prevare i iznude novca. Ići tako daleko da lažirate otmicu nečijeg deteta je ispod svakog morala. Obećala sam sebi da ću ih zaustaviti, da ne samo da neće povrediti moju ćerku, već da neće nastaviti da nanose štetu drugima svojom šemom,” izjavila je majka za Daily Mail

Kako znati da li ste prevareni? 

Drugim rečima, ova imitacija uz pomoć veštačke inteligencije je dostupna svima, čak i onima koji nemaju napredno tehničko znanja, i neverovatno je jeftina. Za samo nekoliko minuta možete napraviti pouzdan deepfake koji može prevariti čak i one koji su vam najbliži. 

image-1

U globalnoj anketi koja je obuhvatila 7.000 ljudi iz devet zemalja, 1 od 4 osobe je rekla da je doživela prevaru kloniranjem glasa uz pomoć veštačke inteligencije ili da poznaju nekoga ko je to doživeo. Osim toga, 70% ispitanika je izjavilo da nisu sigurni da mogu razlikovati klonirani glas od pravog.

Izvor: Daily Mail 

Ono što smo naučili iz ovog primera je da, ako postanete žrtva ove prevare, obavezno pozovite osobu čiji ste glas čuli da proverite da li će se javiti. 

Osim toga, kao što je sagovornica u ovom slučaju objasnila, kada je kontaktirala 911, rekli su joj da su već upoznati sa ovom AI prevarom, ali da je obično odbace kao “prank poziv”, tako da se sve svodi na individualne napore o podizanju svesti kako bi što više ljudi naučilo kako da reaguje u situacijama poput ovih. 

Nije ovo jedini scenario koji koristi AI da targetira roditelje putem telefonskog poziva. U drugom primeru, unuk je tvrdio da je izazvao saobraćajnu nesreću i završio u zatvoru, moleći svog dedu da mu pošalje novac. Američki zvaničnici su upozorili javnost na ovu prevaru, gde lice koristi AI klonirani glas da se predstavi kao unuk kome je hitno potreban novac jer se nalazi u teškoj situaciji. 

Opet dolazimo do istog zaključka kada govorimo o veštačkoj inteligenciji; tehnologija je izvanredna, ali njena zloupotreba raste, kao što je ovaj primer pokazao. Zato je veliki naglasak na AI Act-u, koji je nedavno usvojen u Evropskom parlamentu, a ima za cilj regulisanje ove sve zastupljenije tehnologije. 

Danju novinarka, noću podkasterka. Ne piše s ciljem da čitaoci budu impresionirani, nego da im tema postane jasna.

Prijavi se na novosti.

Prijavi se na novosti.