Google je još jednom pomerio granice kada je u pitanju veštačka inteligencija. Njihov moćni AI model Gemini od sada može ne samo da odgovara na pitanja putem teksta, već i da vodi prirodne glasovne razgovore uživo i analizira sadržaj ekrana korisnika u realnom vremenu.
Ove nove funkcije – nazvane jednostavno “Live” i “Video Screen Sharing” – deo su šire nadogradnje unutar projekta Gemini Astra, koji je predstavljen tokom Google I/O konferencije u maju 2024. godine. Astra je najnaprednija verzija Google AI-ja, osmišljena da se ponaša više kao stvarni digitalni asistent nego kao klasičan chatbot.
Funkcija “Live” omogućava korisnicima da razgovaraju s AI asistentom kao da pričaju s osobom – bez potrebe za kucanjem. Sistem prepoznaje intonaciju, ritam i prirodan tok govora, odgovarajući glasovno u roku od par sekundi. Ovo donosi novu dimenziju interakciji sa tehnologijom, posebno za korisnike koji žele brze savete ili pomoć u hodu.
Sa druge strane, “Video Screen Sharing” omogućava korisnicima da podele svoj ekran s Gemini AI-jem, koji može da “vidi” šta se dešava i ponudi kontekstualne savete – bilo da pokušavate da pronađete opciju u podešavanjima telefona, rešite tehnički problem ili analizirate neki dokument, objavio je The Verge.
Google najavljuje da će ove funkcije uskoro biti dostupne u aplikaciji Gemini na Android uređajima, dok se planira širenje i na iOS platformu. Za sada su deo ograničenog testiranja i dostupne su malom broju korisnika, ali povratne informacije ukazuju na izuzetnu efikasnost i korisnost.
Ova evolucija AI interfejsa predstavlja korak bliže ostvarenju vizije digitalnog asistenta koji uči, prilagođava se i zaista razume potrebe korisnika – gotovo kao virtuelni saputnik.
I dok se svet priprema za sve pametnije telefone i računare, jedno je sigurno: sa funkcijama kao što su “Live” i “Video Screen Sharing”, AI više nije samo alat – već aktivni sagovornik i pomoćnik u svakodnevici.
obalnih tehnoloških dešavanja.

