Procurelo 2,5 miliona fotografija lica iz nezaštićene baze podataka na Internetu

Kompanija za genetska istraživanja GenoME iz Singapura ostavila je nezaštićenu bazu podataka na internetu, čime je otkriveno oko 2,5 miliona fotografija lica korisnika koji su učestvovali u njihovim istraživanjima. Pored slika, procureli su i podaci o poreklu, polu, godinama i jedinstveni identifikatori, a sve je to bilo vezano za AI istraživanje genetike i fizičkog izgleda.

Vreme Čitanja: 2 min

fotografije-lica-3265-fi

Ilustracija: DALL-e3

Fotografije su se koristile za obučavanje veštačke inteligencije kako bi se povezali geni i izgled lica – što je kontroverzno jer može voditi ka zloupotrebama poput biometrijskog nadzora i diskriminacije.

Iako je kompanija kasnije zaštitila podatke, eksperti ističu da su ovakva curenja posebno opasna jer se radi o biometrijskim podacima koji se ne mogu promeniti, kao što su otisak prsta ili izgled lica.

Zabrinjavajuće posledice za biometrijsku privatnost

Biometrijski podaci, poput fotografija lica, ne mogu se promeniti kao lozinka ili broj kreditne kartice – kada jednom „procure“, posledice su trajne.

„Ovo nije samo pitanje privatnosti – ovo je pitanje biometrijske sigurnosti. Kada se podaci o vašem licu i genetici nađu u pogrešnim rukama, potencijal za zloupotrebu je ogroman,“ izjavio je jedan od stručnjaka za sajber bezbednost za magazin Wired.

Zabrinutost dodatno raste s obzirom na to da tehnologije poput facial recognition sistema, nadzornih kamera i AI modela za prepoznavanje identiteta mogu koristiti ove podatke bez znanja ili pristanka korisnika.

Etika u AI i genetici pod znakom pitanja

GenoME je jedna od firmi koje koriste napredne AI alate za povezivanje DNK sa fizičkim osobinama, što se često predstavlja kao pomak u personalizovanoj medicini i razumevanju ljudske genetike. Međutim, sve češće se otvaraju etičke dileme – da li ovakvi projekti prelaze granicu između nauke i potencijalne diskriminacije?

Kritičari upozoravaju da bi AI modeli obučeni na ovakvim podacima mogli da budu korišćeni za rasno profilisanje, automatsku selekciju kandidata za posao, ili čak u svrhe državnog nadzora. Bez jasnih regulacija i pravila o korišćenju osetljivih podataka, ovakvi incidenti postaju sve opasniji presedan.

Slučaj GenoME kao upozorenje za budućnost

Ovaj incident služi kao još jedno podsećanje na to koliko su baze podataka u AI istraživanjima ranjive i koliko je važno da kompanije koje upravljaju biometrijskim i genetskim podacima ulože maksimalan napor u zaštitu svojih korisnika.

GenoME se do sada nije javno oglasio sa zvaničnim saopštenjem, ali se očekuje da nadležni organi u Singapuru i međunarodni regulatori ispitaju ovaj slučaj i uvedu strože kontrole nad radom sličnih AI projekata.

Prijavi se na novosti.

Prijavi se na novosti.