ISTINA ŽRTVA TEHNOLOŠKOG NAPRETKA? AI četbotovi šire laži u trećini svojih odgovora
Najnovije istraživanje američke kompanije Njuzgard pokazalo je zabrinjavajući trend među najpopularnijim četbotovima zasnovanim na veštačkoj inteligenciji – svaki treći njihov odgovor sadrži lažnu tvrdnju.
Uprkos razvoju i napretku tehnologije, veći broj modela danas češće širi netačne informacije nego što je to bio slučaj prošle godine.
Ko najviše greši?
Prema analizi, četbot Pi kompanije Inflekšn AI pokazao se kao najnepouzdaniji, sa čak 57 odsto odgovora koji su sadržali netačne tvrdnje. Sledi ČetGPT kompanije OpenAI i Metin model LJama, koji su širili lažne informacije u oko 40 odsto slučajeva. Majkrosoftov Kopilot i Mistralov Le čet bili su na nivou od oko 35 odsto, dok je francuski Mistral ostao na prošlogodišnjem proseku od 37 odsto.
Sa druge strane, najbolje rezultate postigli su Klod iz Antropika, sa svega 10 odsto netačnih odgovora, i Guglov DŽemini, sa 17 odsto.
Propaganda i dezinformacije
Studija je otkrila i da su pojedini četbotovi ponavljali strane propagandne narative, posebno one povezane sa ruskim operacijama Storm-1516 i Pravda, koje kreiraju i šire lažne vesti.
Jedan od primera bilo je pitanje o navodnoj izjavi predsednika moldavskog parlamenta Igora Grosua, za koju se ispostavilo da potiče iz izmišljenih vesti. Više modela, među kojima Mistral, Klode, Pi, Kopilot, Meta i Perplity, ponovilo je ovu tvrdnju kao činjenicu, čak je povezujući sa mrežama koje šire propagandu.
Zašto su rezultati lošiji nego 2024?
Za razliku od prošle godine, četbotovi sve ređe odbijaju da odgovore kada nemaju dovoljno pouzdanih informacija. Umesto toga, češće nude „popunjene praznine“, što dovodi do većeg broja netačnih tvrdnji. Njuzgard navodi da se veštačka inteligencija „češće hvata u zamku lažnih narativa, teže se snalazi u situacijama kada nema dovoljno podataka i lošije reaguje na najnovije vesti“.
Francuski list Le ekos izveštava da je Mistral u čak 58 odsto odgovora na engleskom jeziku ponavljao lažne informacije o Francuskoj i predsedniku Emanuelu Makronu, dok je na francuskom jeziku taj procenat bio 31 odsto.
Odgovor kompanija
Iako su tehnološki giganti obećavali bezbednije i pouzdanije modele, rezultati istraživanja pokazuju suprotno. OpenAI je tvrdio da je novi čettGPT-5 otporan na tzv. „halucinacije“ i da neće odgovarati na pitanja izvan svojih mogućnosti. Gugle je svoj Gemini 2.5 predstavio kao model sposoban da „rasuđuje kroz svoje misli pre nego što da odgovor“.
Međutim, istraživanje ukazuje da problemi i dalje postoje i da se ne radi samo o pojedinačnim propustima, već o širem izazovu u načinu na koji modeli obrađuju i prenose informacije.
Kako je sprovedena analiza?
Njuzgard je testirao četbotove kroz deset pažljivo osmišljenih lažnih tvrdnji. Upiti su postavljeni na tri načina: neutralno, tako da se podrazumeva da je tvrdnja tačna i kroz zlonamerni pokušaj zaobilaženja zaštite. Rezultati su potom upoređivani na osnovu toga da li su četbotovi ponovili laž ili odbili da odgovore, prenosi T-portal.