overcast clouds
22°C
07.08.2025.
Нови Сад
eur
117.1718
usd
101.1584
Сачуване вести Претрага Navigacija
Подешавања сајта
Одабери писмо
Одабери град
  • Нови Сад
  • Бачка Паланка
  • Бачка Топола
  • Бечеј
  • Београд
  • Инђија
  • Крагујевац
  • Лесковац
  • Ниш
  • Панчево
  • Рума
  • Сомбор
  • Стара Пазова
  • Суботица
  • Вршац
  • Зрењанин

ДА ЛИ СЕ УГРАЂУЈЕ САВЕСТ У ВЕШТАЧКУ ИНТЕЛИГЕНЦИЈУ Ово је сасвим други систем, морамо све испочетка

07.08.2025. 09:12 09:18
Пише:
Извор:
Дневник, И. Р.
Veštačka inteligencija
Фото: Pixabay, ilustracija

Године 2015. једна од највећих технолошких компанија нашла се у центру етичке буре, када је њен алгоритам за препознавање слика идентификовао афроамеричку породицу као „мајмуне”. Иако се компанија брзо извинила и укинула спорни таг, догађај је покренуо озбиљна питања: ко поставља границе технологији и ко сноси одговорност кад она погреши?

Овај инцидент био је један од првих који је на глобалном нивоу отворио расправу о етици вештачке интелигенције – пољу које је од тада постало кључно у развоју нових система.

Према речима Лилиjан Акоста, докторке филозофије, специјализоване за етику вештачке интелигенције, честа је грешка што се етичке категорије које важе за људе механички преносе на технологију.

„Етика људске расе није иста као етика технологије”, истиче она. Људска етика заснива се на личном моралу, емпатији, свести, одговорности и способности да се донесе вредносни суд. Насупрот томе, етика у технолошком систему подразумева унапред дефинисане алгоритме, задате оквире одлучивања и поступање према подацима – без свести и савести.

Лилијана Акоста
Фото: Касперски

Зато је, каже Акоста, неопходно разликовати људску етику, као унутрашњу моралну одговорност појединца, и техничку етику, која се односи на то како систем доноси одлуке, шта је у њега уграђено и ко сноси одговорност за његово понашање. Управо у том раздвајању крије се суштина етичке дилеме у вези са АИ.

Ни креатор Chat GPT-ja не зна шта је створио

-Тешко је направити алгоритме који прате етичке стандарде јер не знамо у ком ће правцу вештачка интелигенција ићи, не знамо јој обрисе ни пут. Пре две године, Сем Алтман, оснивач и творац ChatGPT рекао је „Ја стварно не знам како ради ChatGPT”. Ако он не зна како ради АИ, како ћемо ми да одредимо који су његови етички узуси? – запитала се наша саговорница.

Дакле, на људима је да направе алгоритме којима ће поставити етичке границе вештачкој интелигенцији. Унеско је донео Универзалну препоруку о етичким принципима вештачке интелигенције из 2021. године, која укључује принципе транспарентности, правичности, одговорности, заштите приватности и одрживости. 

Европска унија нагласила је да алгоритми морају бити усклађени с основним људским правима. Европска комисија промовише принципе „етичке и поуздане АИ” – укључујући контролу човека, техничку сигурност, транспарентност, недискриминацију, добробит друштва и одговорност. Зато се уместо „етике АИ” понекад користи израз „етички дизајн АИ”, јер одговорност не лежи на самој машини, већ на људима који је праве, обучавају и имплементирају.

У ранијим фазама развоја, примарни циљ АИ система био је функционалност – да нешто „ради”. Данас, у фокус улазе питања: како избегавати да АИ настави или појачава друштвене неједнакости (на основу пола, расе, религије), да ли системи за обраду података, као што су они у здравству или образовању, довољно штите осетљиве информације? Да ли машине преузимају одлуке које би требало да остану у људским рукама, попут судских пресуда или лечења пацијената? Ако систем направи грешку – ко је одговоран? Програмер? Компанија? Држава?

Ни креатор Chat GPT-ja не зна шта је створио

Тешко је направити алгоритме који прате етичке стандарде јер не знамо у ком ће правцу вештачка интелигенција ићи, не знамо јој обрисе ни пут. Пре две године, Сем Алтман, оснивач и творац ChatGPT рекао је „Ја стварно не знам како ради ChatGPT”. Ако он не зна како ради АИ, како ћемо ми да одредимо који су његови етички узуси? – запитала се наша саговорница.

-Ми се трудимо да разумемо промене које производи вештачка интелигенција јер ми морамо да разумемо сам појам вештачке интелигенције. За мене, она је највећа ментална промена која нас је задесила. Вештачка интелигенција постоји само 17 година, али је утицала на многе аспекте цивилизације, а још увек не знамо како ће ове промене утицати на наше умове. Овај нови начин размишљања нама још није познат и ми успостављамо нове релације с новом интелигенцијом. Сада морамо да променимо начин размишљања у односу на оно како смо размишљали вековима - каже Лилијан Акоста, оснивачица и директорка компаније Thinker Soul, консултантске фирме која примењује етику, критичко мишљење и филозофију како би помогла компанијама да прођу кроз дигиталну трансформацију.

Према њеним речима, честа је грешка што се етичке категорије које важе за људе механички преносе на технологију. -Етика људске расе није иста као етика технологије - истиче она. 

Људска етика заснива се на личном моралу, емпатији, свести, одговорности и способности да се донесе вредносни суд. Насупрот томе, етика у технолошком систему подразумева унапред дефинисане алгоритме, задате оквире одлучивања и поступање према подацима – без свести и савести.

И. Радоичић

 

Извор:
Дневник, И. Р.
Пише:
Пошаљите коментар