Zabrana ChatGPT-ja je neprijatno iznenadila pristalice veštačke inteligencije u Italiji. Briga je bila oko privatnosti korisnika, odnosno ne-transparentnog prikupljanja podataka, nedostatka ograničenja starosne dobi i poznatog curenja podataka.
Da bi se zabrana uklonila, OpenAI je morao da do kraja aprila reši problem koji su regulatori naznačili. U slučaju da ne uspe, mogao bi biti trajno zabranjen za. Osim toga, u najgorem slučaju, ovakav slučaj mogao je da podstakne druge evropske zemlje da slede primer italijanskih regulatora.
Srećom, taj scenario se nije dogodio. Kompanija sa sedištem u San Francisku uspela je da ispuni sve zahteve, što je dovelo do ukidanja zabrane. Odluka italijanskih čuvara da obnove čuveni chatbot mora da je obradovala fanove veštačke inteligencije.
Šta su regulatori želeli?
Kako bi ChatGPT ponovo postao dostupan, OpenAI je morao da obezbedi veću transparentnost svoje politike o privatnosti. Osim toga, morao je da obezbedi obrazac za odustajanje za korisnički sadržaj. Takođe, kompanija će pokrenuti novi obrazac posebno za korisnike Evropske unije, koja će im omogućiti da se usprotive korišćenju njihovih ličnih podataka u obuci OpenAI modela.
Italijanska agencija za zaštitu podataka, Garante per la protezione dei dati personali, pohvalila je napore OpenAI-a u rešavanju briga oko privatnosti podataka. Regulatorni organ je izjavio da je zadovoljan preduzetim koracima i nada se da će OpenAI nastaviti da poštuje njihove zahteve i ubuduće.
Garante je izrazio poseban interes za verifikaciju starosti i osiguravanje da italijanski korisnici budu dobro informisani o korišćenju njihovih podataka. To su ključna pitanja u zaštiti privatnosti korisnika, a regulatorni organ se nada da će OpenAI u budućnosti dati prioritet ovim pitanjima.
Nije sve u potpunosti završeno
Iako je OpenAI napravio napredak u rešavanju briga regulatora, još uvek ima posla koji treba obaviti. Međutim, spremnost kompanije da sarađuje s regulatornim organom je pozitivan znak i jasno je da su obe strane posvećene zaštiti privatnosti korisnika.
Stav regulatora je podsetnik da je privatnost podataka osnovno pravo i da je odgovornost kompanija da se osiguraju da korisnici budu potpuno obavešteni o korišćenju njihovih podataka. Saradnja OpenAI-a sa regulatornim organom može postaviti pozitivan primer za AI industriju, podstičući druge kompanije da daju prioritet privatnosti podataka i sarađuju sa regulatorima u rešavanju problema.
After Italy became the 1st country to ban ChatGPT, ChatGPT made the trip out to meet Italian Prime Minister @GiorgiaMeloni. Sometimes we just need to sit down and talk. #ChatGPT #GPT4 #AI @OpenAI @WonderDynamics vid by @JacopoDeGiu_ pic.twitter.com/WMLyMC4BZc
— Roger James Hamilton (@rogerhamilton) April 27, 2023
Italijanski regulatori su izjavili da će nastaviti da prate svoju istragu ChatGPT-a i sarađivati sa posebnim timom. To ukazuje na posvećenost osiguravanju zaštite privatnosti korisnika i na to da će kompanije biti odgovorne za svoje korišćenje podataka.
Kako će to uticati na ostatak Evrope
Italija je privukla pažnju kada je postala prva zapadnoevropska zemlja koja je ograničila upotrebu ChatGPT-ja. Međutim, popularnost i brzi razvoj ovog četbota naveli su zakonodavce i regulatore u nekoliko zemalja da bolje analiziraju šta se nalazi u pozadini ovog velikog jezičkog modela.
Kao odgovor na zabrinutost zbog upotrebe materijala zaštićenog autorskim pravima za razvoj generativnih alata za veštačku inteligenciju kao što je ChatGPT, odbor zakonodavaca Evropske unije složio se oko novog skupa pravila koja bi od kompanija zahtevala da otkriju takve informacije.
Evropski odbor za zaštitu podataka (European Data Protection Board), koji okuplja nacionalne regulatore privatnosti u Evropi, osnovao je specijalnu radnu grupu ranije ovog meseca za istragu ChatGPT-ja. Ovaj potez usledio je nakon što je italijansko telo za zaštitu podataka pokazalo interes za četbot.
Kako veštačka inteligencija nastavlja da se razvija, važno je da zakonodavci i regulatori e i uspostave jasne smernice za korišćenje ovih tehnologija. Radeći zajedno, oni mogu pomoći da se osigura da je razvoj AI odgovoran i koristan za sve.


