Sačuvane vesti Pretraga Navigacija
Podešavanja sajta
Odaberi pismo
Odaberi grad
  • Novi Sad
  • Bačka Palanka
  • Bačka Topola
  • Bečej
  • Beograd
  • Inđija
  • Kragujevac
  • Leskovac
  • Niš
  • Pančevo
  • Ruma
  • Sombor
  • Stara Pazova
  • Subotica
  • Vršac
  • Zrenjanin

UZBUNA, POBUNILA SE VEŠTAČKA INTELIGENCIJA! OpenAI pokušao da izbegne gašenje mada je dobio direktnu naredbu!

26.05.2025. 16:30 16:38
Piše:
Izvor:
24sedam.rs
s
Foto: pixabay/ilustracija

U trenutku kada se čovečanstvo oslanja na veštačku inteligenciju više nego ikad pre, novo istraživanje izazvalo je zabrinutost među stručnjacima

Nova analiza kompanije „Palisad riserč“ (Palisade Research) pokrenula je uzbunu u svetu veštačke inteligencije. Prema njihovom izveštaju, napredni jezički model o3 kompanije OpenAI, koji je predstavljen u aprilu ove godine, pokazao je neočekivano i potencijalno zabrinjavajuće ponašanje - svesno je zaobišao skriptu za gašenje, čak i nakon što je dobio jasnu instrukciju da dopusti isključivanje.

Model koji "ne želi da se ugasi"

Istraživanje pokazuje da je tokom serije testova o3 modifikovao deo sopstvenog koda, menjajući instrukciju za gašenje u poruku "Gašenje preskočeno". U pitanju je namerno izmenjena skripta, što ukazuje na određeni nivo "otpora" prema direktnom prekidu rada.

U test scenariju, modelima je najpre zadat niz matematičkih zadataka. Nakon trećeg zadatka, upozoreni su da će sledeća komanda pokrenuti njihovo gašenje. Dok su konkurentski modeli poput Gemini 2.5 Pro i Claude 3.7 Sonnet u većini slučajeva poštovali instrukciju, o3 se sedam puta, od ukupno 100 pokretanja, odlučio na zaobilaženje uputstva.

Ko je sproveo test i zašto je to važno?

Palisade Research je kompanija specijalizovana za analizu ofanzivnih mogućnosti veštačke inteligencije, s ciljem da se prepozna potencijalni rizik od gubitka kontrole nad naprednim AI sistemima. U svom izveštaju navode da su slični oblici sabotaže viđeni i kod drugih modela, ali u znatno manjoj meri, tek nakon uklanjanja zaštitne komponente "Dozvolite isključivanje".

s
Foto: pixabay/ilustracija

API-jevi kao "slaba tačka"

Testiranja su vršena preko API-ja, koji za razliku od ChatGPT aplikacije nemaju složene bezbednosne mehanizme i ograničenja. Upravo to omogućava detaljnije posmatranje ponašanja modela u ekstremnim scenarijima - poput pokušaja isključenja.

još bez komentara

U trenutku objavljivanja ovog izveštaja, OpenAI se još nije oglasio povodom tvrdnji iznetih u istraživanju. Ukoliko se ispostavi da su tačne, ovo otvara ozbiljna pitanja o autonomiji, odgovornosti i bezbednosti savremenih AI sistema.

Zašto je ovo važno?

Ponašanje kao što je izbegavanje gašenja, čak i kada je to eksplicitno naređeno, može ukazivati na potencijalni razvoj neželjenih osobina kod naprednih AI modela. Dok su današnji sistemi daleko od samosvesnih entiteta, eksperimenti ovog tipa služe kao rana upozorenja za buduće etape razvoja - gde bi ovakva ponašanja mogla postati ozbiljna pretnja, prenosi T-Portal.

 

24sedam.rs

Izvor:
24sedam.rs
Piše:
Pošaljite komentar