Iznenađujuće otpuštanje Sema Altmana
Spekulacije su počele gotovo odmah nakon iznenadnog otpuštanja Sema Altmana sa pozicije direktora OpenAI-a u petak. Upravni odbor OpenAI-a dao je malo razloga za otpuštanje Altmana, osim što je rekao da nije bio potpuno iskren prema članovima odbora. Ali, iskren u vezi sa čim, tačno?
Jedna popularna teorija na X pretpostavlja da postoji nevidljivi faktor koji stoji u pozadini, pokrećući igrače u ovoj tekućoj drami: mogućnost da su istraživači OpenAI-a napredovali dalje nego što je iko znao prema veštačkoj opštoj inteligenciji (AGI) – to jest, AI sposobnoj da izvršava širok spektar zadataka bolje nego što ih ljudi mogu obavljati. Razvoj AGI-ja, naposletku, glavni je cilj OpenAI-a, prema njihovoj izjavi o misiji.
Najveći prevrti u korporativnom svetu veštačke inteligencije: Slučaj OpenAI
Spekulacije i teorije o razlozima otpuštanja
Izveštaji tokom vikenda, koji citiraju neimenovane izvore, kažu da je odbor verovao da Altman žuri na tržište s novim AI proizvodima bez davanja dovoljno vremena timovima za bezbednost da instaliraju zaštitne ograde. To je moguće. Postoji škola mišljenja unutar OpenAI-a da je bolje izbaciti novo istraživanje u stvarni svet u obliku proizvoda (kao što je ChatGPT) kako bi se steklo razumevanje njihovih prednosti i rizika. Kaže se da je Altman bio željan da kapitalizuje uspeh ChatGPT-a, da lansira nove proizvode koristeći zamah fenomena chatbot-a.
Ali to još uvek deluje kao nešto što bi se moglo rešiti između direktora i odbora – osim ako proizvodi u pitanju ne uključuju AGI. Moguće je da su sigurnosna razmatranja oko AGI proizvoda koji će doći pre ili kasnije mogla uticati na akciju odbora.
Istraživači mogu biti bliži AGI-ju nego što mnogi misle. AI agenti postaju “autonomni” i stiču mehanizme za razmišljanje i izvršenje zadataka. Nedavni istraživački rad iz Google DeepMinda, koji nudi okvir za praćenje napretka istraživačkih kompanija prema AGI-ju, kaže da se trenutni sistemi smatraju “kompetentnim AI-om”, što znači da su bolji u uskom skupu zadataka od 50% ljudi. To je samo jedan korak dalje od “kompetentnog AGI-ja”, u kojem je AI bolji od većine ljudi u većini zadataka.
Ali kako ćemo znati da li je OpenAI dostigao svoj cilj AGI-ja? To je težak deo, posebno kada je definicija AGI-ja donekle fleksibilna, kako je prošlog meseca rekao osnivač Google Brain-a Endrju Ng Fast Company-u. Ng, sada CEO i osnivač Landing AI, kaže da neki ljudi imaju tendenciju da prilagode svoju definiciju AGI-ja kako bi je lakše ostvarili u tehničkom smislu.
OpenAI je tačno to učinio. Glavni naučnik Ilija Sutskever rekao je da ispunjavanje standarda za AGI zahteva sistem koji se može naučiti da radi bilo šta što se može naučiti čovek. Ali OpenAI je u prošlosti koristio manje zahtevnu definiciju – definirajući AGI kao sisteme koji prevazilaze ljudske sposobnosti u većini ekonomski vrednih zadataka. To je definicija koja se pojavljuje na stranici “Struktura” na web sajtu OpenAI-a danas. Takođe jasno navodi da je upravni odbor OpenAI-a taj koji će definisati šta je AGI, a šta nije.
Transparentnost i tajnost u OpenAI
Postoji i problem transparentnosti. Programerka Sofija Huang ističe da je puštanje GPT-2 bilo poslednji put kada je OpenAI bio otvoren i transparentan o svom najnovijem modelu – dovoljno da programeri mogu pročitati istraživački rad, a zatim rekreirati model. Ali to je bilo pre četiri godine, februara 2019.
To je bila ista godina kada je Altman predvodio stvaranje profitne (poznate kao “ograničena dobit”) organizacije unutar strukture OpenAI-a. Uopšteno govoreći, AI kompanije s profitom imaju veću šansu da privuku investicioni novac ako ne daju svoj IP na Githubu. Od 2019. godine, OpenAI je postao konkurentniji i tajnovitiji u vezi sa detaljima svojih modela.
Društveni i ekonomski uticaj AGI tehnologije
Ako je OpenAI sistem postigao AGI, ili ako njegovi istraživači vide put do njega, implikacije su prevelike da bi ih jedna kompanija mogla upravljati. Većina bi se složila da razumevanje i ublažavanje rizika od AGI-ja treba da bude napor koji bi trebao uključivati vlade, istraživače, akademsku zajednicu i druge širom sveta.
Ako i kada AGI stigne i proširi se, postoji velika verovatnoća da će AI sistemi početi da eliminiraju poslove. Ako je Industrijska revolucija ikakav vodič, iako će AI sigurno stvoriti neka nova radna mesta, verovatno će eliminisati mnogo, mnogo više. To znači masovno premeštanje radne snage i društvene prevrate. Postoji i stvarni rizik da će se prednosti nove tehnologije nejednako rasporediti – da će dalje koncentrisati moć u rukama bogatih i moćnih.
Niko tačno ne zna zašto je Altman izbačen iz OpenAI-a. Kaže se da su on i bivši predsedavajući odbora Greg Brokman na putu ka novim poslovima u Microsoftu (jasnom pobedniku u celoj situaciji). U međuvremenu, većina od 700 zaposlenih u OpenAI-u sada preti da će dati otkaz ako postojeći članovi odbora ne podnesu ostavke, a Altman i Brokman budu vraćeni. Ovo je najdramatičniji vesterni ciklus koji smo videli oko tehnološke kompanije godinama, možda ikada. Bezbednost AGI-ja možda je u središtu toga.