Kako je Google-ova veštačka inteligencija izmislila nepostojeći deo tela i zbunila lekare

Google-ova AI za zdravstvenu zaštitu pogrešno je identifikovala izmišljeni deo mozga, izazvavši zabrinutost među lekarima zbog prevelikog oslanjanja na veštačku inteligenciju u medicini.

Vreme Čitanja: 2 min

google-doktor-4135-fi

Freepik

Novi AI sistem kompanije Google, nazvan Med-Gemini, nedavno je napravio grešku koja je mnoge u medicinskoj zajednici ostavila zbunjenima. Dok je analizirao snimak mozga, AI je prijavio problem u “basilar ganglia” – što ne postoji.

Verovatno je mislio na “basal ganglia” (bazalne ganglije), pravi deo mozga koji je važan za pokrete i emocije. Ali je to pomešao sa “basilar artery” (bazilarna arterija), što je nešto sasvim drugo. Iako ovakva greška može zvučati bezazleno, u medicinskom kontekstu može imati ozbiljne posledice.

Greška u naučnom radu

Prema pisanju The Verge-a, ova greška se pojavila u istraživačkom radu koji je Google objavio ranije ove godine, kako bi predstavio mogućnosti sistema Med-Gemini. Isto to se našlo i u blog postu. U početku niko u Google-u nije primetio grešku. Neurolog Brajan Mur (Bryan Moore) ju je identifikovao i privatno prijavio kompaniji. Google je tiho ispravio blog post, zamenivši termin sa “basal ganglia”, ali nije javno rekao ništa o toj izmeni. Istraživački rad i dalje nije ažuriran.

Google je kasnije tvrdio da je u pitanju bila samo štamparska greška. Međutim, mnogi lekari nisu prihvatili to objašnjenje. Kažu da je ovo jasan primer tzv. AI halucinacije, kada sistem izmisli nešto i predstavi to kao činjenicu. U oblasti kao što je medicina, to je ozbiljan problem jer greške mogu biti opasne.

Lekari poput Maulina Šaha (Maulin Shah), koji radi u velikom bolničkom sistemu, ističu da ovakve greške ne smeju biti zanemarene. Čak i najmanja promena u formulaciji može dovesti do potpuno drugačije dijagnoze ili terapije. Ako se lekari slepo oslanjaju na AI, možda ni neće primetiti grešku.

Još zabrinjavajuće je to što je Google već počeo da testira ovu AI u stvarnim bolnicama. Još jedan njihov model, MedGemma, takođe je pokazivao znake konfuzije. U nekim slučajevima, davao je tačnu dijagnozu kada mu je postavljeno detaljno pitanje, ali kada bi mu isto pitanje bilo postavljeno jednostavnije – nije prepoznao problem.

Stručnjaci kažu da veštačka inteligencija može da pomogne u zdravstvu, ali samo uz pažljivo nadgledanje.

Ovi alati često zvuče samouvereno – čak i kad greše. To dodatno povećava potrebu da lekari sve dvaput provere. Kako je rekao jedan radiolog:

„Ovi sistemi ne kažu ‘ne znam’. Oni jednostavno kažu nešto što zvuči tačno. U tome je problem.”

Prijavi se na novosti.

Prijavi se na novosti.