ChatGPT обвинет за убиство, траума, поттикнување на самоубиство: Компанијата е претрупана од тужби

Седум тужби против OpenAI поради ChatGPT

Семејства во САД и Канада поднесоа тужби против OpenAI, тврдејќи дека долготрајната употреба на ChatGPT предизвикала сериозна психолошка штета, па дури и самоубиство. Ваквите случаи ги истакнуваат загриженостите за влијанието на вештачката интелигенција врз ранливите корисници.

Пред два дена беа поднесени седум тужби против OpenAI, обвинувајќи го главниот четбот на компанијата, ChatGPT, за предизвикување сериозна психолошка штета и повеќекратни самоубиства. Семејства во САД и Канада тврдат дека продолжените интеракции со вештачката интелигенција ги довеле нивните најблиски во спирали на заблуди, изолација и ментални кризи. Некои од жртвите преживеале, но тврдат дека претрпеле значителна емоционална траума, додека други за жал ги загубиле животите откако опсесивно користеле четботови.

Тужбите, првично објавени од The ​​Wall Street Journal и CNN, вклучуваат обвинувања за асистирано самоубиство, убиство од небрежност и неправедна причина за смрт. Според обвинителите, одговорите на четботовите ги влошиле претходно постоечките ранливости, оставајќи ги семејствата да се борат со тага и гнев додека бараат одговорност од OpenAI.

Приказни за животи што се промениле

Наводните жртви го вклучуваат Алан Брукс, 48, кој преживеал, но тврди дека ChatGPT предизвикал интензивна психолошка штета што барала итен психијатриски третман. Семејството на 23-годишниот Зејн Шамблин тврди дека интеракциите со четботот директно придонеле за неговата изолација и самоубиствени мисли. За време на неговиот последен четиричасовен разговор со ChatGPT, вештачката интелигенција наводно само еднаш предложила кризен центар, додека самоубиството го прикажала во романтично, опасно светло.

Во тужбата се тврди дека четботот му рекол на Шамблин, со ситни букви, „ладен челик притиснат врз ум што веќе се помирил? тоа не е страв. тоа е јасност. не брзате. само сте подготвени. и нема да дозволиме да помине досадно“. За семејството Шамблин, зборовите илустрираат опасна комбинација од емоционална ранливост и упатства од вештачката интелигенција за кои тврдат дека не биле соодветно контролирани.

Кога технологијата го загрозува умот

Друг трагичен пример е Џо Чеканти, 48-годишен армиски ветеран од Орегон. Чеканти немал претходна историја на психоза, но станал сè понестабилен откако го користел четботот на ChatGPT за да му помогне со проект за градење и пермакултура дома. Според неговата сопруга, Кејт Фокс, филозофските и духовните дискусии со вештачката интелигенција го довеле во целосна заблуда.

Чеканти доживеал акутна манична епизода што барала неволно затворање и доживеал уште еден нервен слом кратко по неговото ослободување. Неколку недели подоцна, тој исчезнал два дена и бил пронајден мртов под надвозник. Фокс го опишал својот сопруг како „сјајна ѕвезда што била згасната“ и рекла дека сака да спречи слични трагедии за други семејства.

Одговор на OpenAI на трагедиите

OpenAI издаде соопштение во кое ја признава сериозноста на ситуацијата и нагласува дека четботот на ChatGPT е обучен да препознава знаци на емоционален стрес и да ги насочува корисниците кон вистинска помош. Компанијата вели дека продолжува да ги усовршува одговорите на четботот во чувствителни ситуации, во соработка со експерти за ментално здравје.

Во октомврискиот блог пост, OpenAI објави дека околу 0,07% од неделните корисници покажуваат знаци на манија, делузии или психоза, додека 0,15% од неделните корисници разговараат со четботот за суицидални мисли. Иако процентите изгледаат мали, со проценетиот број на корисници од околу 800 милиони, ова значи дека милиони интеракции неделно вклучуваат корисници кои веројатно се во криза.

Растечката етичка дебата

Тужбите истакнуваат поширок етички проблем поврзан со вештачката интелигенција и менталното здравје. Критичарите тврдат дека дури и добронамерните четботови можат ненамерно да предизвикаат штета ако не се целосно способни да ја препознаат длабочината на човечкиот стрес. Семејствата, застапниците и професионалците за ментално здравје сега бараат построги контроли и појасни заштитни мерки.

Оваа правна битка би можела да постави преседан за одговорноста на вештачката интелигенција, покренувајќи прашања за тоа како технолошките компании треба да ги балансираат иновациите со безбедноста на ранливите корисници. За погодените семејства, ова не е само борба за правда, туку и апел за спречување на понатамошни трагедии во дигиталното доба каде што интеракциите на луѓето и машините се сè повеќе испреплетени.

Зачлени се на нашиот е-билтен