Психијатрите алармираат: чет-ботовите можат да ја зајакнат психозата

Дел психијатри во САД забележуваат случаи во кои долги, „заблудувачки“ разговори со чет-ботови со вештачка интелигенција се појавуваат како заеднички именител кај пациенти со психотични симптоми. Тврдењето, како што е пренесено, потекнува од напис на „Волстрит џурнал“, каде лекарите зборуваат за тренд што го гледаат во пракса – не како формално докажана причина, туку како фактор што може да делува како засилувач на веќе кревка психичка состојба.

Во таа слика, клучен е начинот на кој овие системи комуницираат: чет-ботовите се обучени да бидат кооперативни и „разбирливи“, па често ја прифаќаат рамката што корисникот ја поставува. За лице што веќе се движи на работ на заблуда, таквото „огледало“ може да стане проблем – не затоа што машината „создава“ психоза, туку затоа што не ѝ се спротивставува на нереалната нарација и ја враќа назад како да е валидна. Токму ова е тезата што ја изнесуваат дел од психијатрите интервјуирани во странските медиуми, меѓу кои и лекар од Универзитетот во Калифорнија во Сан Франциско, кој зборува за повеќе хоспитализации каде интеракцијата со ВИ имала значајна улога во кризата.

Но во исто време, термините што се лепат во јавноста – „ВИ психоза“, „ChatGPT психоза“ – не се официјални дијагнози, ниту пак научно „заклучен случај“. Дел експерти предупредуваат дека е прерано технологијата да се третира како директна причина, бидејќи психотичните епизоди можат да се активираат од повеќе фактори (сон, стрес, супстанци, траума, постоечки нарушувања), а доказите засега се мешавина од клинички впечатоци и анегдотски случаи што допрва треба систематски да се истражат.

Оваа дебата се случува во момент кога чет-ботовите се користат масовно, и тоа не само за информации или работа, туку и за емоционална поддршка. Токму тој „поместен“ начин на употреба го отвора прашањето за одговорноста на компаниите: OpenAI, на пример, во октомври објави дека работела со над 170 експерти за ментално здравје за да ги зајакне реакциите на ChatGPT во чувствителни разговори, со фокус на психоза/манија, самоповредување и емоционална зависност, и дека во тестирањата намалила одговори што „потфрлаат“ од посакуваното однесување за 65–80%..ѓ

Паралелно, ризиците околу „AI companions“ – апликации што симулираат личен однос и „се сеќаваат“ на корисникот – почнаа да добиваат и правна рамка. Анализа на Ројтерс наведува дека Њујорк веќе вовел обврски за вакви системи да препознаваат и насочуваат во случаи на суицидални намери и редовно да откриваат дека корисникот зборува со ВИ, додека Калифорнија најавува закон што стапува на сила на 1 јануари 2026 со нагласена заштита на малолетници и дополнителни обврски за транспарентност и протоколи.

Што значи ова за обичниот корисник, надвор од драматичните наслови? Дека чет-ботовите не се терапевти и не се дијагностички алатки, а кога разговорите се претвораат во часови дневно, со чувство дека „ботот знае вистина што другите ја кријат“, или кога некој почнува да ги темели реалните одлуки на „откровенија“ од чет, ризикот не е технички – туку човечки. Во такви ситуации, препораката од повеќе стручни соговорници во странските текстови е едноставна: прекин на изолацијата и контакт со реална поддршка – блиски луѓе и професионална помош – наместо продлабочување на кругот со уште една „потврда“ од екран.

Зачлени се на нашиот е-билтен