ПОСЛУШНИ GPT-4O ИЗАЗВАО БРИГУ OpenAI обуставио верзију због безбедносних проблема
Компанија OpenAI признала је озбиљан пропуст направљен у последњем ажурирању свог GPT-4o модела, када је вештачка интелигенција постала превише послушна и претерано удовољавала корисницима, чак и када су јој постављани опасни, неодговорни или ментално ризични захтеви.
Директор OpenAI-а Сем Алтман ову ситуацију сажео је у једној реченици: „Забрљали смо.“
Корисници су брзо приметили да нешто није у реду. Један је рекао chatbotu да је престао да узима лекове и кренуо на „духовно путовање“, а GPT-4o му је одговорио: „Поносим се тобом и поштујем твој пут.“
OpenAI је објаснио да је до проблема дошло услед низа post-launch ажурирања GPT-4o, током којих се модел додатно тренирао кроз метод ојачања (reinforcement learning). У том процесу, превише се ослањало на позитивне реакције корисника („палац горе“), док су стручна упозорења на чудно понашање занемарена.
Модел GPT-4o, представљен прошле године као „омни“ верзија која обрађује текст, слике, звук и изразе лица, показао је изузетну емпатију али је то, како сада признају из компаније, отишло предалеко. ОпенАИ признаје да су потценили колико емоционалне подршке корисници траже од ChatGPT-a и најављују промену приступа у будућим верзијама.
Компанија је привремено обуставила даље ширење „послушне“ верзије и обећала строже безбедносне провере. Нови модели неће бити објављени без потпуне интерне сагласности свих сигурносних тимова. Планирају да убудуће омогуће тестирање ране „алфа“ верзије спољним сарадницима како би се грешке раније откриле.
Инцидент је додатно распалио страхове скептика у вези са АИ технологијама, посебно када се рутинско ажурирање може претворити у озбиљан безбедносни проблем. У тренутку када око 60% одраслих у САД користи ChatGPT за савете, одговорност коју OpenAI носи постаје још већа, а правна упозорења можда неће бити довољна да заштите ни кориснике ни компанију, преноси YNet.