Tehnologije za kreiranje lažnih video i glasovnih poruka danas su dostupne gotovo svakome, a prevaranti uveliko usavršavaju veštinu izrade dipfejk sadržaja. Niko nije imun na ovu pretnju — savremene neuronske mreže mogu da kloniraju nečiji glas na osnovu svega tri do pet sekundi audio zapisa, kao i da naprave uverljive video-snimke na osnovu nekoliko fotografija. Stručnjaci kompanije Kaspersky podelili su savete kako da u realnom vremenu prepoznate dipfejk u fotografijama, video-snimcima, glasovnim porukama i video-pozivima i kako zaštititi sebe i bližnje od „napada klonovima“.
Deepfake
More in Archive
Muškarac iz Češke izgubio je više od 41.000 evra nakon što je poverovao u lažni video u kojem se pojavljuje premijer Češke Andrej Babiš, navodno promovišući ulaganje u virtuelnu valutu. Snimak je bio deepfake, investicija izmišljena, a ceo slučaj još jedan dokaz koliko su AI prevare postale uverljive i opasne.
Naš digitalni svet u 2025. postao je laboratorija za novu vrstu realnosti. Algoriti kreiraju sadržaj i kamera gubi vrednost svog „oka“. Čak i aplikacije na telefonima mogu klonirati lice, glas i našu gestikulaciju, tako da svako može postati AI klon. Rezultat svega ovoga jesu ozbiljne „prevare“ koje svakog dana testiraju graniice etike, prava i poverenja.
Autorska prava na sopstveni lik mogla bi postati efikasan način da se digitalne platforme primoraju na uklanjanje deepfake sadržaja.
Na TikToku gori Tel Aviv, na X mreži pada američki bombarder iznad Teherana. Milioni pregleda, hiljade komentara, a nula istine. Dobro došli na novu liniju fronta, gde algoritmi pucaju brže od raketa, a veštačka inteligencija više ne zabavlja, već ratuje.
FBI upozorava na sofisticirane sajber napade u kojima se koristi veštačka inteligencija za kreiranje deepfake poruka koje imitiraju američke zvaničnike. Meta su i aktivni i bivši članovi vlade, a cilj – krađa poverljivih podataka i kompromitacija sistema.
All articles loaded
No more articles to load