Ghibli i japanski izdavači poručuju OpenAI-ju: Prestanite da trenirate modele na našim delima

Japanska organizacija CODA, u čijem su članstvu Studio Ghibli i veliki izdavači, zatražila je od OpenAI-ja da prekine korišćenje njihovih autorskih dela za obuku veštačke inteligencije bez izričite dozvole. Pismo otvara novo poglavlje u globalnoj raspravi o tome gde prestaje inspiracija, a počinje neovlašćena upotreba zaštićenog sadržaja.

Vreme Čitanja: 2 min

ghibli-4733-fi

Izvor: Freepik AI

Studio Ghibli i CODA: Zaštita kataloga i “Ghibli stil”

CODA (Content Overseas Distribution Association) navodi da treniranje modela na delima koja su pod zaštitom autorskog prava, a naročito kada rezultati vizuelno “imitiraju” prepoznatljiv stil, može predstavljati povredu prava nosilaca. Među potpisnicima apela su izdavačke kuće i studiji sa bogatim katalozima — od animiranih klasika do popularnih franšiza igara — koji upozoravaju da je kulturna baština Japana postala “nevidljivi set podataka” komercijalnih AI platformi.

Popularizacija generatora slika i videa pojačala je taj pritisak. Internet je preplavljen vizuelima “u Ghibli stilu”, a širenje pristupa naprednim video modelima podiglo je očekivanja, ali i rizike za identitet brendova i autora. Japanski izdavači tvrde da tržišni efekti takvih imitacija nisu benigni — od razvodnjavanja vrednosti originala do mogućeg zavaravanja publike.

Autorska prava i AI treniranje: Različita tumačenja, slične brige

Srž spora jeste pravna kvalifikacija treniranja: da li je samo korišćenje dela u procesu obuke dozvoljeno bez saglasnosti, ili je potrebna licenca, posebno kada modeli kasnije generišu radove koji “nose rukopis” originala. U pojedinim jurisdikcijama ovo pitanje je sivo, ali japanski izdavači ističu da njihov zakon naginje strožem pristupu i pozivaju na ugovorne okvire, transparentnost podataka i mehanizme nadoknade.

Za OpenAI i druge igrače to je strateško pitanje održivosti. Kompanije nastoje da balansiraju između širenja kreativnih mogućnosti i poštovanja prava autora. Jedan mogući izlaz su partnerstva: od licenciranja celih kataloga i “čistih” setova podataka, do alata koji vlasnicima prava nude kontrolu — uključujući opt-in modele, blok-liste i granularne postavke za isključivanje sadržaja iz budućih obuka, objavio je TechChrunch.

Ishod inicijative CODA mogao bi da utiče na to kako će AI industrija globalno pristupati sadržaju koji je nastajao decenijama. Ako preovlada stav da je za obuku potrebna prethodna dozvola i jasna naknada, pred AI platformama je period intenzivnog pregovaranja sa izdavačima i studijima. Ako pak prevagne fleksibilnije tumačenje, ključna tema postaće transparentnost: ko su izvori podataka, kako se čuvaju tragovi o korišćenju i na koji način se sprečava da “stil” ne pređe u nedozvoljenu imitaciju.

Prijavi se na novosti.