LLM

More in Archive

Pri korišćenju alata na bazi veštačke inteligencije (AI), posebno u okviru velikih jezičkih modela (LLM) koji se koriste u četbotovima, česta pojava je generisanje lažnih ili netačnih informacija koje modeli predstavljaju kao verodostojne. Ova pojava se naziva “halucinacija”, a stručnjaci preporučuju korišćenje “RAG” tehnike, koja pomaže da AI ne halucinira.
All articles loaded
No more articles to load