Altmanova opomena korisnicima: ChatGPT nije vaš advokat, terapeut ni ispovednik

Direktor OpenAI-a Sem Altman poručio je korisnicima da razgovori sa ChatGPT-om nisu pravno poverljivi, čak i kada se AI koristi za osetljive teme poput mentalnog zdravlja ili pravnih saveta. Iako alat može delovati kao sagovornik, zakonska zaštita poverljivosti ne postoji.

Vreme Čitanja: 2 min

chatgpt-altman-4069-fi

Izvor: DALL-E3

Altmanova izjava stiže kao hladan tuš za milione korisnika koji svakodnevno dele osetljive informacije sa chatbot-om. Prema rečima izvršnog direktora OpenAI-a, nijedan razgovor sa ChatGPT-om nije zakonski zaštićen – bez obzira na temu, ton ili nameru korisnika.

„ChatGPT nije vaš advokat. Nije vaš terapeut. I svakako nije duhovnik“, poručio je Altman na jednom od nedavnih događaja. „Ljudi moraju da shvate da ono što unesu u sistem ne podleže nikakvoj zakonskoj garanciji privatnosti”, rekao je on, objavio je EconomicTimes.

Šta sve kosrisnici traže od ChatGPT-a?

Ova poruka dolazi u trenutku kada sve više korisnika koristi AI kao zamenu za tradicionalne profesionalne konsultacije – tražeći savete o depresiji, anksioznosti, razvodima, poreskim dilemama, pa čak i krivičnim postupcima. Činjenica da su ti unosi zabeleženi, potencijalno analizirani i ne podliježu zaštiti profesionalne tajne izaziva opravdanu zabrinutost.

Altman je podvukao da OpenAI, iako korisnicima nudi opcije za brisanje istorije razgovora, i dalje može privremeno čuvati delove konverzacija u cilju poboljšanja modela i detekcije zloupotreba. Drugim rečima, korisnik nikada ne može biti siguran da ono što je rekao „u poverenju“ AI alatu ostaje zaista poverljivo.

„Poverenje je ključno za bilo koji oblik savetovanja, ali AI sistemi još uvek nemaju kapacitet da pravno preuzmu tu odgovornost“, kaže jedan stručnjak za digitalnu etiku. „Ljudi projektuju očekivanja iz stvarnog sveta na algoritme koji nisu napravljeni da ih ispune.“

Iako Altman nije isključio mogućnost da u budućnosti AI bude pravno integrisan u okvir usluga koje zahtevaju poverljivost, jasno je poručio da to sada nije slučaj. Otvoreno je pozvao zakonodavce i tehnološku industriju da zajednički rade na uspostavljanju jasnih standarda o tome kako se AI alati koriste – i koje granice moraju postojati.

Za sada, korisnicima ostaje da budu oprezni. ChatGPT može dati dobar savet, ali ne može snositi odgovornost za posledice tog saveta. Može slušati, ali ne zaboravlja. I može da razume – ali nije obavezan da ćuti.

Prijavi se na novosti.

Prijavi se na novosti.