НЕ ВЕРУЈТЕ ВЕШТАЧКОЈ ИНТЕЛИГЕНЦИЈИ - ЛАЖЕ ВАС МАСНО Ево шта су истраживања показала
Ново истраживање указује да око трећина одговора које дају генеративни АИ алати и претраживачи засновани на њима, садржи тврдње које нису поткрепљене поузданим изворима.
Посебно забрињава податак да OpenAI GPT-4.5 у 47% случајева нуди тврдње које немају јасну подршку у цитираним изворима, док Perplexity deep research агент то чини у чак 97,5% случајева.
Анализу су спровели истраживачи из Salesforce AI Research. Они су тестирали GPT-4.5 и 5, Bing Chat, You.com и Perplexity, као и њихове напредне опције за дубинску претрагу. У испитивање је укључено 303 питања подељена у две категорије: контроверзне теме (нпр. алтернатива фосилним горивима) и питања из стручних области попут метеорологије и медицине.
АИ алати под лупом због пристрасних и недовољно поткрепљених одговора
Коришћени критеријуми, названи DeepTrace, оцењивали су пристрасност, релевантност, квалитет и поткрепљеност одговора. Резултати су показали да Bing Chat у 23% случајева даје неосноване тврдње, док су You.com и Perplexity на око 31%. Најслабије резултате имала је управо дубинска претрага Perplexity-ја, где је готово сваки одговор био проблематичан.
Неки стручњаци, попут Феликса Симона са Оксфорда, сматрају да је студија важан корак у осветљавању слабости ових система, док други, попут Александре Урман са Универзитета у Цириху, упозоравају да методологија није довољно прецизна. Посебно се критикује то што је процену валидности одговора делимично радио други АИ модел, уместо већег броја људских стручњака.
Упркос критикама, јасно је да АИ алати и даље имају озбиљан проблем са пристрасношћу и поузданошћу одговора. Како се све више ослањамо на генеративну вештачку интелигенцију у областима попут медицине, образовања и пословних одлука, потреба за унапређењем транспарентности и тачности постаје примарна, пише NewScientist.