ИСТИНА ЖРТВА ТЕХНОЛОШКОГ НАПРЕТКА? АИ четботови шире лажи у трећини својих одговора
Најновије истраживање америчке компаније Њузгард показало је забрињавајући тренд међу најпопуларнијим четботовима заснованим на вештачкој интелигенцији – сваки трећи њихов одговор садржи лажну тврдњу.
Упркос развоју и напретку технологије, већи број модела данас чешће шири нетачне информације него што је то био случај прошле године.
Ко највише греши?
Према анализи, четбот Пи компаније Инфлекшн АИ показао се као најнепоузданији, са чак 57 одсто одговора који су садржали нетачне тврдње. Следи ЧетГПТ компаније ОпенАИ и Метин модел Љама, који су ширили лажне информације у око 40 одсто случајева. Мајкрософтов Копилот и Мистралов Ле чет били су на нивоу од око 35 одсто, док је француски Мистрал остао на прошлогодишњем просеку од 37 одсто.
Са друге стране, најбоље резултате постигли су Клод из Антропика, са свега 10 одсто нетачних одговора, и Гуглов Џемини, са 17 одсто.
Пропаганда и дезинформације
Студија је открила и да су поједини четботови понављали стране пропагандне наративе, посебно оне повезане са руским операцијама Сторм-1516 и Правда, које креирају и шире лажне вести.
Један од примера било је питање о наводној изјави председника молдавског парламента Игора Гросуа, за коју се испоставило да потиче из измишљених вести. Више модела, међу којима Мистрал, Клоде, Пи, Копилот, Мета и Перплитy, поновило је ову тврдњу као чињеницу, чак је повезујући са мрежама које шире пропаганду.
Зашто су резултати лошији него 2024?
За разлику од прошле године, четботови све ређе одбијају да одговоре када немају довољно поузданих информација. Уместо тога, чешће нуде „попуњене празнине“, што доводи до већег броја нетачних тврдњи. Њузгард наводи да се вештачка интелигенција „чешће хвата у замку лажних наратива, теже се сналази у ситуацијама када нема довољно података и лошије реагује на најновије вести“.
Француски лист Ле екос извештава да је Мистрал у чак 58 одсто одговора на енглеском језику понављао лажне информације о Француској и председнику Емануелу Макрону, док је на француском језику тај проценат био 31 одсто.
Одговор компанија
Иако су технолошки гиганти обећавали безбедније и поузданије моделе, резултати истраживања показују супротно. ОпенАИ је тврдио да је нови четтГПТ-5 отпоран на тзв. „халуцинације“ и да неће одговарати на питања изван својих могућности. Гугле је свој Гемини 2.5 представио као модел способан да „расуђује кроз своје мисли пре него што да одговор“.
Међутим, истраживање указује да проблеми и даље постоје и да се не ради само о појединачним пропустима, већ о ширем изазову у начину на који модели обрађују и преносе информације.
Како је спроведена анализа?
Њузгард је тестирао четботове кроз десет пажљиво осмишљених лажних тврдњи. Упити су постављени на три начина: неутрално, тако да се подразумева да је тврдња тачна и кроз злонамерни покушај заобилажења заштите. Резултати су потом упоређивани на основу тога да ли су четботови поновили лаж или одбили да одговоре, преноси Т-портал.