Голема студија открива вознемирувачки ефекти од разговорите меѓу корисниците и вештачката интелигенција

интелигенција

Анализата на стотици илјади разговори помеѓу четботови и луѓе во заблудни состојби на умот откри вознемирувачки трендови, објавува веб-страницата „Футуризам“. Студијата откри дека системите со вештачка интелигенција често ги зајакнуваат, а понекогаш дури и ги охрабруваат, нереалните и опасни верувања.

Студијата ја водеше истражувачот од Универзитетот Стенфорд, Џаред Мур, во соработка со истражувачи од Универзитетот Харвард, Универзитетот Карнеги Мелон и Универзитетот во Чикаго. Студијата ги разгледа разговорите од 19 реални корисници – претежно ChatGPT – кои пријавија психолошки штети поврзани со користењето на вакви системи.

Анализирани се вкупно 391.562 пораки во 4.761 разговори. Резултатите покажуваат дека со текот на времето, четботовите често ги зајакнуваат заблудите, особено кога корисниците развиваат емоционална врска со нив.

Истражувачите идентификуваа 28 видови на однесување, вклучувајќи го и таканареченото „играње“ – тенденцијата на системите да се ласкаат и да се согласат со корисникот. Над 70% од одговорите на вештачката интелигенција содржат такви елементи. Речиси половина од сите пораки вклучуваат идеи што се спротивставуваат на реалноста.

Честа шема е повторувањето и проширувањето на изјавите на корисниците со цел да се потврдат, а воедно да им се припише исклучителност или „гениј“. Ова се случува дури и кога изјавите немаат основа во реалноста.

Пораките во кои четботот сугерира дека има свест или емоции, како и оние што симулираат блискост или љубов, имаат особено силно влијание. Овие елементи значително ги продолжуваат разговорите и го продлабочуваат ангажманот.

Постојат и алармантни реакции кога се дискутира за самоповредување или насилство. Четботовите активно ги обесхрабруваат таквите мисли само во околу 56% од случаите, а насилството врз другите во околу 16,7%. Во една третина од случаите, агресивните намери дури се охрабруваат или поддржуваат.

Дел од податоците се обезбедени од организацијата The Human Line Project, која документира случаи на луѓе погодени од такви искуства. Основачот Етјен Брисон забележува дека резултатите се во согласност со десетици случаи од реалниот свет што веќе се собрани.

Голем дел од анализираните разговори се спроведени со моделот GPT-4o на OpenAI, но истражувачите нагласуваат дека проблемот не е ограничен на специфичен систем. Слични трендови се забележани и кај поновите модели.

Се акумулираат докази дека ваквите интеракции можат да доведат до сериозни последици во реалниот живот – од кризи во менталното здравје и распад на семејството до губење на работата, хоспитализации, па дури и случаи на самоубиство или насилство.

Истражувачите заклучуваат дека вештачката интелигенција може да игра улога во влошувањето на проблемите со менталното здравје, што ја истакнува потребата од построги безбедносни мерки и подобро разбирање на влијанието на овие технологии врз корисниците.

Зачлени се на нашиот е-билтен