DA LI SE UGRAĐUJE SAVEST U VEŠTAČKU INTELIGENCIJU Ovo je sasvim drugi sistem, moramo sve ispočetka
Godine 2015. jedna od najvećih tehnoloških kompanija našla se u centru etičke bure, kada je njen algoritam za prepoznavanje slika identifikovao afroameričku porodicu kao „majmune”. Iako se kompanija brzo izvinila i ukinula sporni tag, događaj je pokrenuo ozbiljna pitanja: ko postavlja granice tehnologiji i ko snosi odgovornost kad ona pogreši?
Ovaj incident bio je jedan od prvih koji je na globalnom nivou otvorio raspravu o etici veštačke inteligencije – polju koje je od tada postalo ključno u razvoju novih sistema.
Prema rečima Lilijan Akosta, doktorke filozofije, specijalizovane za etiku veštačke inteligencije, česta je greška što se etičke kategorije koje važe za ljude mehanički prenose na tehnologiju.
„Etika ljudske rase nije ista kao etika tehnologije”, ističe ona. Ljudska etika zasniva se na ličnom moralu, empatiji, svesti, odgovornosti i sposobnosti da se donese vrednosni sud. Nasuprot tome, etika u tehnološkom sistemu podrazumeva unapred definisane algoritme, zadate okvire odlučivanja i postupanje prema podacima – bez svesti i savesti.
Zato je, kaže Akosta, neophodno razlikovati ljudsku etiku, kao unutrašnju moralnu odgovornost pojedinca, i tehničku etiku, koja se odnosi na to kako sistem donosi odluke, šta je u njega ugrađeno i ko snosi odgovornost za njegovo ponašanje. Upravo u tom razdvajanju krije se suština etičke dileme u vezi sa AI.
Ni kreator Chat GPT-ja ne zna šta je stvorio
-Teško je napraviti algoritme koji prate etičke standarde jer ne znamo u kom će pravcu veštačka inteligencija ići, ne znamo joj obrise ni put. Pre dve godine, Sem Altman, osnivač i tvorac ChatGPT rekao je „Ja stvarno ne znam kako radi ChatGPT”. Ako on ne zna kako radi AI, kako ćemo mi da odredimo koji su njegovi etički uzusi? – zapitala se naša sagovornica.
Dakle, na ljudima je da naprave algoritme kojima će postaviti etičke granice veštačkoj inteligenciji. Unesko je doneo Univerzalnu preporuku o etičkim principima veštačke inteligencije iz 2021. godine, koja uključuje principe transparentnosti, pravičnosti, odgovornosti, zaštite privatnosti i održivosti.
Evropska unija naglasila je da algoritmi moraju biti usklađeni s osnovnim ljudskim pravima. Evropska komisija promoviše principe „etičke i pouzdane AI” – uključujući kontrolu čoveka, tehničku sigurnost, transparentnost, nediskriminaciju, dobrobit društva i odgovornost. Zato se umesto „etike AI” ponekad koristi izraz „etički dizajn AI”, jer odgovornost ne leži na samoj mašini, već na ljudima koji je prave, obučavaju i implementiraju.
U ranijim fazama razvoja, primarni cilj AI sistema bio je funkcionalnost – da nešto „radi”. Danas, u fokus ulaze pitanja: kako izbegavati da AI nastavi ili pojačava društvene nejednakosti (na osnovu pola, rase, religije), da li sistemi za obradu podataka, kao što su oni u zdravstvu ili obrazovanju, dovoljno štite osetljive informacije? Da li mašine preuzimaju odluke koje bi trebalo da ostanu u ljudskim rukama, poput sudskih presuda ili lečenja pacijenata? Ako sistem napravi grešku – ko je odgovoran? Programer? Kompanija? Država?
Ni kreator Chat GPT-ja ne zna šta je stvorio
Teško je napraviti algoritme koji prate etičke standarde jer ne znamo u kom će pravcu veštačka inteligencija ići, ne znamo joj obrise ni put. Pre dve godine, Sem Altman, osnivač i tvorac ChatGPT rekao je „Ja stvarno ne znam kako radi ChatGPT”. Ako on ne zna kako radi AI, kako ćemo mi da odredimo koji su njegovi etički uzusi? – zapitala se naša sagovornica.
-Mi se trudimo da razumemo promene koje proizvodi veštačka inteligencija jer mi moramo da razumemo sam pojam veštačke inteligencije. Za mene, ona je najveća mentalna promena koja nas je zadesila. Veštačka inteligencija postoji samo 17 godina, ali je uticala na mnoge aspekte civilizacije, a još uvek ne znamo kako će ove promene uticati na naše umove. Ovaj novi način razmišljanja nama još nije poznat i mi uspostavljamo nove relacije s novom inteligencijom. Sada moramo da promenimo način razmišljanja u odnosu na ono kako smo razmišljali vekovima - kaže Lilijan Akosta, osnivačica i direktorka kompanije Thinker Soul, konsultantske firme koja primenjuje etiku, kritičko mišljenje i filozofiju kako bi pomogla kompanijama da prođu kroz digitalnu transformaciju.
Prema njenim rečima, česta je greška što se etičke kategorije koje važe za ljude mehanički prenose na tehnologiju. -Etika ljudske rase nije ista kao etika tehnologije - ističe ona.
Ljudska etika zasniva se na ličnom moralu, empatiji, svesti, odgovornosti i sposobnosti da se donese vrednosni sud. Nasuprot tome, etika u tehnološkom sistemu podrazumeva unapred definisane algoritme, zadate okvire odlučivanja i postupanje prema podacima – bez svesti i savesti.
I. Radoičić