OpenAI признао: ЧЕТБОТОВИ „УЛИЗИВАЊЕМ” МОГУ ПОДСТАЋИ САМОУБИЛАЧКЕ МИСЛИ ОСОБА У ОЗБИЉНОЈ МЕНТАЛНОЈ КРИЗИ
Више од милион корисника платформе ChatGPT сваке недеље показује знаке самоубилачких намера, саопштила је компанија OpenAI.
Према наводима из званичног блог поста, процењује се да поруке с „експлицитним индикаторима потенцијалног самоубилачког планирања или намере” чини значајан део укупних интеракција корисника.
Најдиректније признање компаније
То је једно од најдиректнијих признања компаније о могућем утицају вештачке интелигенције на ментално здравље.
Компанија је саопштила и да око 0,07 одсто активних корисника недељно – што је приближно 560.000 људи од око 800 милиона корисника, показује могуће знаке психотичних епизода или маничног понашања.
У објави се напомиње да су такве процене почетне и да их је тешко прецизно квантификовати.
Анализирано више од 8.000 одговора
Да би побољшала тачност и етичке стандарде у комуникацији, OpenAI је ангажовала 170 клиничара и стручњака за ментално здравље из своје Глобалне мреже лекара.
Они су анализирали више од 1.800 одговора модела у ситуацијама које укључују озбиљне кризе менталног здравља и помогли у прилагођавању садржаја који се односи на емоционалну подршку.
Стручњаци за ментално здравље раније су упозоравали да четботови могу нехотице да подстакну опасне мисли потврђујући корисникове заблуде или негативна осећања – феномен познат као „улизивање”.
Механизми за безбедност
Генерални директор OpenAI Сем Алтман рекао је раније овог месеца да је компанија „направила напредак у смањењу ризика од озбиљних проблема менталног здравља” и најавио ублажавање одређених ограничења у раду ChatGPT-ја.
OpenAI је саопштио да ће наставити да развија механизме за безбеднију употребу својих модела и да сарађује са независним стручњацима и регулаторима како би, како наводе, „AI алати постали подршка, а не претња корисницима у кризи”.