Алатки за разголување: ЕК и Интерпол бараат забрана

Алатки за разголување со вештачка интелигенција станаа нова точка на судир меѓу технолошките компании и регулаторите, откако Европската комисија, Интерпол и повеќе од 100 организации за човекови права и заштита на деца повикаа на итни законски мерки за нивно целосно забранување и правење „универзално недостапни“.

Станува збор за апликации и функции што од обична фотографија со облека можат да генерираат лажна „гола“ слика, често без знаење и согласност на лицето на фотографијата. Во заедничкиот апел, коалицијата предупредува дека ваквата технологија сè почесто се злоупотребува за понижување, уцена и сексуално изнудување, а во најтешките случаи и за создавање нелегални сексуализирани содржини со деца.

Повикот доби дополнителна тежина по реакциите околу таканаречениот „бикини“ тренд поврзан со алатки за генерирање и уредување слики, кога корисници бараа од чет-бот и алатки за сликање да „одземаат“ облека од фотографии, а дел од резултатите потоа се ширеа јавно на социјални мрежи. Во оваа атмосфера, активисти и институции тврдат дека штетата не е „само онлајн“, туку остава реална траума и долгорочни последици за жртвите.

Во документот „No to Nudify“, поддржан од 107 организации, се бара во рок од две години секоја држава да воведе целосна забрана: да го прогласи за незаконито развивањето, дистрибуцијата, поседувањето и комерцијалната употреба на овие алатки, со внимателно дефинирани исклучоци за легитимни намени и заштитни механизми што нема да ги криминализираат децата и преживеаните. Паралелно, се бара и задолжително блокирање на пристапот преку ап-сторови, хостинг, интернет провајдери и платформи.

Наспроти тоа, од технолошките компании се бара пристап „безбедност од дизајн“: да не пуштаат модели и функции што можат да создаваат разголени „дипфејк“ содржини без докажани заштити, да воведат детекција и блокирање, да ги исфрлат ваквите алатки од своите екосистеми (апликации, приклучоци, АПИ-интеграции), да ги пресечат каналите за монетизација и да објавуваат транспарентни извештаи за откривање и постапување.

На притисокот му се приклучуваат и други сигнали од институциите. УНИЦЕФ неодамна повика да се криминализира создавањето содржина со вештачка интелигенција што прикажува сексуална злоупотреба на деца и наведе дека најмалку 1,2 милиони деца во 11 земји пријавиле дека им биле манипулирани слики во сексуално експлицитни „дипфејк“ содржини во изминатата година. Во Обединетото Кралство, владата соопшти дека оди кон мерки за забрана на „nudification“ алатките како дел од поширок одговор на злоупотребите со синтетички медиуми.

Во ЕУ, темата се надоврзува на дебатите за побрзо и поостро спроведување на постојните правила, особено преку Дигиталниот акт за услуги и Актот за вештачка интелигенција, по скандалите поврзани со генерирање сексуализирани содржини со алатки што се вградени во платформи со огромен досег. Следниот тест ќе биде дали повикот за забрана ќе се преточи во конкретни законски решенија и практична примена што навистина го ограничува ширењето, а не само ја префрла злоупотребата на други канали.

Зачлени се на нашиот е-билтен