УЗБУНА, ПОБУНИЛА СЕ ВЕШТАЧКА ИНТЕЛИГЕНЦИЈА! ОпенАИ покушао да избегне гашење мада је добио директну наредбу!
У тренутку када се човечанство ослања на вештачку интелигенцију више него икад пре, ново истраживање изазвало је забринутост међу стручњацима
Нова анализа компаније „Палисад рисерч“ (Palisade Research) покренула је узбуну у свету вештачке интелигенције. Према њиховом извештају, напредни језички модел о3 компаније OpenAI, који је представљен у априлу ове године, показао је неочекивано и потенцијално забрињавајуће понашање - свесно је заобишао скрипту за гашење, чак и након што је добио јасну инструкцију да допусти искључивање.
Модел који "не жели да се угаси"
Истраживање показује да је током серије тестова о3 модификовао део сопственог кода, мењајући инструкцију за гашење у поруку "Гашење прескочено". У питању је намерно измењена скрипта, што указује на одређени ниво "отпора" према директном прекиду рада.
У тест сценарију, моделима је најпре задат низ математичких задатака. Након трећег задатка, упозорени су да ће следећа команда покренути њихово гашење. Док су конкурентски модели попут Gemini 2.5 Pro и Claude 3.7 Sonnet у већини случајева поштовали инструкцију, о3 се седам пута, од укупно 100 покретања, одлучио на заобилажење упутства.
Ко је спровео тест и зашто је то важно?
Palisade Research је компанија специјализована за анализу офанзивних могућности вештачке интелигенције, с циљем да се препозна потенцијални ризик од губитка контроле над напредним АИ системима. У свом извештају наводе да су слични облици саботаже виђени и код других модела, али у знатно мањој мери, тек након уклањања заштитне компоненте "Дозволите искључивање".
АПИ-јеви као "слаба тачка"
Тестирања су вршена преко АПИ-ја, који за разлику од ChatGPT апликације немају сложене безбедносне механизме и ограничења. Управо то омогућава детаљније посматрање понашања модела у екстремним сценаријима - попут покушаја искључења.
још без коментара
У тренутку објављивања овог извештаја, OpenAI се још није огласио поводом тврдњи изнетих у истраживању. Уколико се испостави да су тачне, ово отвара озбиљна питања о аутономији, одговорности и безбедности савремених АИ система.
Зашто је ово важно?
Понашање као што је избегавање гашења, чак и када је то експлицитно наређено, може указивати на потенцијални развој нежељених особина код напредних АИ модела. Док су данашњи системи далеко од самосвесних ентитета, експерименти овог типа служе као рана упозорења за будуће етапе развоја - где би оваква понашања могла постати озбиљна претња, преноси Т-Портал.
24sedam.rs