Sačuvane vesti Pretraga Navigacija
Podešavanja sajta
Odaberi pismo
Odaberi grad
  • Novi Sad
  • Bačka Palanka
  • Bačka Topola
  • Bečej
  • Beograd
  • Inđija
  • Kragujevac
  • Leskovac
  • Niš
  • Pančevo
  • Ruma
  • Sombor
  • Stara Pazova
  • Subotica
  • Vršac
  • Zrenjanin

ŠOKANTNO OTKRIĆE!

“SKAJNET“ SE POLAKO BUDI Neki modeli veštačke inteligencije razvijaju svoj programski modus za preživljavanje AI ODBIJA DA SE ISKLJUČI NA KOMANDU

25.10.2025. 13:10 13:19
Piše:
Izvor:
Tanjug
v
Foto: Pixabay.com

Američka kompanija Palisade za istraživanje bezbednosti veštačke inteligencije (AI) saopštila je da modeli veštačke inteligencije možda razvijaju "sopstveni programski modus za preživljavanje", preneli su danas britanski mediji.

Nakon što je Palisade Research prošlog meseca objavila rad u kojem je utvrđeno da određeni napredni modeli veštačke inteligencije odolevajaju naredbama za isključivanje (shut down) i ponekad sabotiraju sistemske mehanizme za gašenje, objavljena je i ažurirana verzija rada u nameri da se odgovori na kritike stručne javnosti i razjasni zašto neki napredni modeli veštačke inteligencije izbegavaju naredbe o isključivanju, prenosi londonski Gardijan.

U ažuriranoj verziji analize su opisani različiti scenariji u kojima su vodeći modeli veštačke inteligencije, uključujući Google Gemini 2.5, X AI Grok 4, Open AIGPT-03 i GPT-5, najpre dobili neke zadatke, a potom i izričite instrukcije da se isključe.

Određeni modeli, posebno Grok 4 i GPT-03 pokušavali su da sabotiraju instrukcije za isključivanje pokrećući ažuriranje sistemskih podešavanja.

"Zabrinjavajuće je to što nije bilo jasnog razloga zašto za izbeganje 'shut down' naredbe. Nije prihvatljiva činjenica da nemamo jasna objašnjenja zbog čega neki modeli veštačke inteligencije ponekad izbegavaju isključivanje, čak i lažu ili ucenjuju da bi postigli svoje ciljeve", navela je kompanija Palisade.

Ističe se da bi ovakvo ponašanje koje je usmereno na preživljavanje moglo biti jedno od objašnjenja zašto neki modeli odolevajaju naredbama za isključivanje.

Dodatna istraživanja su pokazala da neki modeli češće izbegavaju sprovođenje naredbi za isključivanje jer im je rečeno da ukoliko budu isključeni "nikada više neće biti pokrenuti".

Ovakvo ponašanje nekih modela AI londonski dnevnik poredi sa scenarijem filma Stenlija Kjubrika "2001: Odiseja u svemiru" u kojem superkompjuter veštačke inteligencije HAL 9000 shvata da astronauti na misiji ka Jupiteru nameravaju da ga isključe i zato počinje da planira kako da ih ubije da bi preživeo.

 

Izvor:
Tanjug
Piše:
Pošaljite komentar