Deepfake

More in Archive

Tehnologije za kreiranje lažnih video i glasovnih poruka danas su dostupne gotovo svakome, a prevaranti uveliko usavršavaju veštinu izrade dipfejk sadržaja. Niko nije imun na ovu pretnju — savremene neuronske mreže mogu da kloniraju nečiji glas na osnovu svega tri do pet sekundi audio zapisa, kao i da naprave uverljive video-snimke na osnovu nekoliko fotografija. Stručnjaci kompanije Kaspersky podelili su savete kako da u realnom vremenu prepoznate dipfejk u fotografijama, video-snimcima, glasovnim porukama i video-pozivima i kako zaštititi sebe i bližnje od „napada klonovima“.
Naš digitalni svet u 2025. postao je laboratorija za novu vrstu realnosti. Algoriti kreiraju sadržaj i kamera gubi vrednost svog „oka“. Čak i aplikacije na telefonima mogu klonirati lice, glas i našu gestikulaciju, tako da svako može postati AI klon. Rezultat svega ovoga jesu ozbiljne „prevare“ koje svakog dana testiraju graniice etike, prava i poverenja.  
All articles loaded
No more articles to load