Ako vam je definicija AGI-ja dosad zvučala kao filozofska magla, Altman je sada pretvara u merljiv cilj: automatizovanog istraživača. Unutrašnji plan je da se do 2026. dobije asistent približan istraživačkom stažisti — dovoljno sposoban da čita literaturu, predlaže skice eksperimenata, sumira rezultate i nudi sledeće korake. Do 2028. ambicija je punopravni „AI naučnik“ koji može da vodi istraživački tok uz minimalan ljudski nadzor.
Zašto neko misli da je to realno? Zato što se naučni rad već sastoji iz velikog niza ponovljivih zadataka: pretraga i sistematizacija literature, dizajn eksperimentalnih varijanti, obrada podataka, statistička validacija, pisanje i citiranje. Modeli koji su vešti u razumevanju teksta i generisanju koda već sada ubrzavaju delove tog procesa. Sledeći korak je orkestracija: spojiti alate u „lab OS“ koji kontroliše tok posla, proverava rezultate i iterativno uči iz neuspeha.
Tri prepreke ipak odvajaju ambiciju od realnosti. Prvo, računarstvo: da bi AI vodio istraživanje, mora masovno da simulira i testira hipoteze. To znači ozbiljne kapacitete za trening, inferencu i podatke, kao i energetsku infrastrukturu koja sve to podnosi. Drugo, metodologija: nauka nije samo uverljiv tekst, već i stroga verifikacija — statistička i eksperimentalna. Treće, bezbednost: sistem koji može da osmišljava i „izvodi“ eksperimente mora imati jasne granice, posebno u domenu biotehnologije i sajber-bezbednosti, piše TechChrunch.
Ako cilj uspe, kako se menja posao istraživača? U najboljem scenariju, AI preuzima zamoran sloj — pretražuje hiljade radova, generiše varijante protokola, analizira negativne rezultate — dok ljudi određuju ciljeve, postavljaju hipoteze na višem nivou i čuvaju etičke i bezbednosne standarde. U srednjem scenariju dobijamo moćne „copilot“ alate koji ubrzavaju timove, ali traže gust ljudski QA. U lošem, AI proizvodi uverljive, a pogrešne radove i dolivamo ulje na vatru krize replikabilnosti.
Zato će presudni biti transparentni, javni benchmark-ovi koji mere stvarnu istraživačku vrednost. Umesto opštih testova razumevanja, gledaće se metrika poput „koliko hipoteza je kasnije eksperimentalno potvrđeno“ ili „koliko protokola je dalo reprodukovane rezultate u nezavisnim laboratorijama“. Jednako važno biće i nezavisne revizije modela, kao i obavezne procedure objave podataka i koda.
Ne treba zanemariti ni industrijski kontekst: trka za talente, računarstvo i bezbednosne kapacitete bukti, a rokovi (2026, 2028) su istovremeno poruka investitorima i magnet za regrutaciju. Ipak, promena organizacije i prioriteta u bezbednosnim timovima širom industrije podseća da se kurs ka „odgovornom“ super-modelu crta u hodu. Ako će AI zaista sam napisati sledeći veliki rad, zajednica mora paralelno da podigne i standarde provere.
Bottom line: Meta je postavljena. Da li je dostižna, videćemo kad „stažista“ 2026. pokaže prvi nov, proverljiv uvid — a ne samo bolje sročenu literaturu. Ako to prođe, 2028. više neće zvučati kao naučna fantastika, nego kaThinking



