Kada AI odlučuje: Zašto su procene uticaja ključne
Zamislite banku koja uvodi AI sistem za procenu kreditne sposobnosti. Odluka se više ne donosi samo na osnovu istorije otplate, već uključuje transakcije u realnom vremenu, obrasce ponašanja i alternativne izvore podataka. Brzo, efikasno, tehnološki impresivno.
A zatim se ispostavi da model dosledno odbija čitave grupe ljudi. Posledica? Diskriminacija, pravni rizici i ozbiljan udarac na poverenje klijenata. To nije hipotetička mogućnost, već realan scenario koji se već beleži u praksi.
Problem nije samo u tehnologiji, već u odsustvu adekvatne procene uticaja pre implementacije. Upravo zato su instrumenti poput DPIA (Data Protection Impact Assessment) i FRIA (Fundamental Rights Impact Assessment) danas postali obavezni deo evropskog regulatornog okvira.
Novi regulatorni pejzaž
Usvajanjem AI Act-a (2024), Evropska unija je prvi put sistematski uredila oblast veštačke inteligencije, sa posebnim naglaskom na sisteme visokog rizika. Ovaj zakon dopunjuje već postojeći okvir zaštite podataka iz GDPR-a (2016).
Za kompanije koje razvijaju ili primenjuju AI, to znači dvostruku obavezu:
- sprovođenje DPIA, usmerenog na zaštitu podataka o ličnosti, i
- sprovođenje FRIA, usmerenog na zaštitu osnovnih prava građana.
Oba instrumenta funkcionišu zajedno i čine mehanizam kojim se proverava ne samo zakonitost i bezbednost obrade podataka, već i širi uticaj na društvo – jednakost, pravičnost, slobodu izražavanja, zabranu diskriminacije.
Od forme do suštine
U dosadašnjoj praksi, mnoge organizacije DPIA i FRIA svode na administrativnu formalnost – popunjavanje obrazaca bez stvarne analize rizika. Takav pristup ne samo da ne ispunjava regulatorne zahteve, već propušta priliku da se rizici prepoznaju na vreme i spreči šteta koja može ugroziti i kompaniju i korisnike.
Kako bi ponudile rešenje koje prevazilazi takvu formalnost, Tamara Zavišić i Ana Toskić Cvetinović razvile su AI DPIA Priručnik (2025).
Šta donosi AI DPIA Priručnik
Priručnik je osmišljen kao praktičan metodološki alat, a ne kao teorijsko štivo. On nudi:
- jedinstven okvir koji integriše obaveze iz GDPR-a i AI Act-a,
- operativne alate – upitnike, matrice rizika, templejte,
- sektorske module prilagođene finansijama, zdravstvu, zapošljavanju i javnom sektoru,
- jasne korake – od planiranja i implementacije do kontinuiranog monitoringa.
Na taj način, priručnik omogućava kompanijama da procene i kontrolišu rizike, ali i da ojačaju poverenje korisnika i regulatora.
Rizici i sankcije
Kazne za nepoštovanje obaveza nisu zanemarljive:
- prema GDPR-u – do 20 miliona evra ili 4% globalnog godišnjeg prometa,
- prema AI Act-u – do 35 miliona evra ili 7% prometa u najtežim slučajevima.
Još važnije, propuštanje adekvatne procene može značiti povlačenje proizvoda sa tržišta i gubitak poverenja koje je teško povratiti.
Razvoj AI sistema danas zahteva više od inovativnog koda i naprednih algoritama. Potreban je strukturisan, metodološki okvir koji obezbeđuje da tehnologija bude u skladu sa zakonom i društvenim vrednostima.
AI DPIA Handbook (2025), koji su pripremile Tamara Zavišić i Ana Toskić Cvetinović, predstavlja upravo takav okvir: praktičan, primenljiv i sektorski relevantan. Njegova vrednost nije samo u ispunjavanju regulatornih obaveza, već i u obezbeđivanju otpornosti i održivosti poslovanja u digitalnoj ekonomiji.
Priručnik se može poručiti putem [email protected], uz napomenu da li se naručuje izdanje na srpskom ili engleskom jeziku.