Dok svet prati eskalaciju sukoba između Irana, Izraela i Sjedinjenih Američkih Država, u digitalnom prostoru odvija se još jedan, podmukliji rat, onaj u kojem istina više ne važi. Internetom se šire uznemirujuće fotografije i snimci navodnih napada, uništenih gradova i vojne opreme, za koje se ispostavlja da su potpuno lažni. Ne zato što su stari, već zato što nikada nisu postojali. Napravila ih je veštačka inteligencija.
Deepfake duh gori iznad Irana
Jedan od viralnijih deepfake primera prikazivao je američki bombarderski B‑2 „duh“ kako gori iznad Irana. U drugom snimku, nepoznati dron raketira centar Tel Aviva. Oba su delovala uverljivo. Oba su lažna. I oba su kreirana da utiču na paniku, bes ipropagandu.
Ovo je ono što analitičari nazivaju „rat narativa“, gde je cilj da se stvarnost preoblikuje brže nego što je moguće proveriti. Generativni modeli, obučeni da rekonstruišu svet iz tekstualnih opisa, sada proizvode vizuale sa političkim i vojnim nabojem. Štaviše, čak su i AI alati za proveru autentičnosti, poput chatbotova, ponekad nemoćni, Grok, na primer, potvrdio je autentičnost deepfake slike koja je već bila demantovana.
Nedavno, nakon što su američke vojne snage 22. juna napale tri iranska nuklearna postrojenja, na društvenim mrežama pojavila se fotografija za koju se tvrdilo da prikazuje olupinu američkog bombardera B2 unutar teritorije Irana. Korisnici su navodili da je američki avion oboren i da nije uspeo da napusti Iran jer su ga pogodile iranske snage. Ispostavilo se, međutim, da je slika generisana veštačkom inteligencijom, objavio je TechTarget.
Ono što je ranije bilo alat za filmske efekte, sada postaje sredstvo destabilizacije u stvarnom vremenu. Lažne slike imaju snagu da utiču na donošenje odluka, širenje dezinformacija i polarizaciju javnosti. Njihova moć ne leži samo u uverljivosti, već u brzini kojom se šire i ostavljaju trag, čak i nakon što su razotkrivene.



