Роботските повици до гласачите, наводно во име на актуелниот претседател Џо Бајден, кој претендира за втор избор за Белата куќа на претстојните избори во САД, ја поттикнаа дебатата за ограничување на технологијата во изборниот процес. Но, експертите велат – Доцна е! Вештачката интелигенција (ВИ) во контекст на изборите на САД е тука.
Преземено од Гардијан
Вештачката интелигенција во контекст на изборите на САД е тука.
Роботски повик, генериран со помош на вештачка интелигенција, ги таргетираше гласачите во Њу Хемпшир на прелиминарните избори во јануари, со порака дека, наводно, претседателот Џо Бајден ги советува гласачите да останат дома. Официјални лица велат дека тоа може да биде првиот обид за користење вештачка интелигенција за мешање во изборите во САД. „Дип фејк“ повиците беа поврзани со две компании од Тексас, Life Corporation и Lingo Telecom.
Не е точно констатирано во која мерка длабоко лажните повици ги спречија гласачите да излезат, но тоа навистина не е важно, рече Лиза Гилберт, извршен потпретседател на Public Citizen, група која се залага за федерално и државно регулирање на употребата на вештачката интелигенција во политиката.
„Мислам дека не треба да чекаме да видиме колку луѓе се измамени за да сфатат дека тоа е поентата“, рече Гилберт.
Примери за тоа што би можело да се случи САД веќе има насекаде низ светот. Во Словачка, лажните аудио се „застрашувачки предвесник за учеството на ВИ за време на претседателските избори во 2024 година“, објави Си-Ен-Ен. Во Индонезија, аватарот на еден воен командант генериран со вештачка интелигенција помогна да се ребрендира министерот за одбрана на земјата како човек со „буцмасти образи“ кој „прави срца од прсти во корејски стил и ја лулка својата сакана мачка, Боби, на задоволство на гласачите на генералот З“, објави Ројтерс. Во Индија, верзии со вештачка интелигенција на мртви политичари се вратени за да им даваат комплименти на избраните функционери, според Ал Џезира.
Но, американските регулативи не се подготвени за бум на брзата вештачка интелигенција и како таа би можела да влијае на гласачите. Набргу по лажниот повик во Њу Хемпшир, Федералната комисија за комуникации (ФКК) објави забрана за роботски повици кои користат аудио со вештачка интелигенција. ФКК допрва треба да воспостави правила за управување со употребата на вештачка интелигенција во политички реклами, иако државите брзо се движат за да ја пополнат празнината во регулативата.
Конгресот на САД започна да ги истражува начините на регулирање на вештачката интелигенција и ќе издаде извештај со препораки, иако не е најјасно како ќе го спречат влијанието на ВИ за време за овогодинешните избори.
Без јасни заштитни мерки, влијанието на вештачката интелигенција врз изборите може да се сведе на она што гласачите можат да го препознаат како реално, а не реално. Вештачката интелигенција – во форма на текст, ботови, аудио, фотографија или видео – може да се користи за да изгледа дека кандидатите кажуваат или прават работи што не ги направиле, или за да ја нарушат нивната репутација или да ги заведат гласачите. Може да се користи за зајакнување на кампањите за дезинформација, правејќи слики што изгледаат доволно реални за да создадат конфузија кај гласачите.
Лиза Гилберт од Public Citizen, вели дека „аудио содржината, особено, може да биде уште поманипулативна бидејќи технологијата за видео сè уште не е толку напредна и примателите на повици генерирани со вештачка интелигенција губат дел од контекстуалните индиции дека нешто е лажно што би можеле да го најдат во длабоко лажно видео“.
Експертите, исто така, стравуваат дека повиците генерирани со вештачка интелигенција ќе ги имитираат гласовите на луѓето што повикувачот ги познава во реалниот живот, што има потенцијал за поголемо влијание врз примачот затоа што повикувачот ќе изгледа како некој на кого го познаваат и му веруваат. Вообичаено наречена измама „баба и дедо“, повикувачите сега можат да користат вештачка интелигенција за да го клонираат гласот на некој близок за да ја измамат целта да се испратат пари. Тоа, теоретски, би можело да се примени и во изборните измами.
„Може да дојде од член на вашето семејство или од вашиот сосед и да звучи токму како нив“, рече Гилберт. „Способноста да се измами од вештачката интелигенција го стави проблемот со погрешните и дезинформациите на стероидите“.
Некои политички кампањи дури користат вештачка интелигенција за да покажат алтернативна реалност за да ги кажат своите поенти, како рекламата на Републиканскиот национален комитет којшто користеше вештачка интелигенција за да создаде лажна слика за иднината доколку Бајден биде реизбран.
Луѓето кои сакаат да влијаат на изборите повеќе нема потреба да „рачно изработуваат занаетчиски дезинформации за изборите“, рече Честер Вишњевски, експерт за сајбер безбедност во Sophos. Сега, алатките за вештачка интелигенција помагаат побрзо да се испраќаат ботови што звучат како вистински луѓе, „со еден господар на бот зад контролите како момчето од Волшебникот од Оз“.
Сепак, можеби најзагрижувачки е тоа што доаѓањето на вештачката интелигенција може да ги натера луѓето да се запрашаат дали нешто што гледаат е реално или не, воведувајќи голема доза на сомнеж во време кога самите технологии сè уште учат како најдобро да ја имитираат реалноста.
„Има разлика помеѓу она што може да го направи вештачката интелигенција и она што всушност го прави вештачката интелигенција“, рече Кејти Харбат, која порано работеше во Фејсбук, а сега пишува за пресекот помеѓу технологијата и демократијата. Луѓето ќе почнат да се прашуваат, рече таа, „што ако вештачката интелигенција би можела да го направи сето ова? Тогаш можеби не треба да верувам во сè што гледам“.
Дури и без владина регулатива, компаниите кои управуваат со алатките за вештачка интелигенција објавија и започнаа планови за ограничување на нивното потенцијално влијание врз изборите, како што е нивните чет-ботови да ги упатуваат луѓето до доверливи извори каде да гласаат и да не дозволуваат чет-ботови кои имитираат кандидати. Неодамнешниот договор меѓу компаниите како Google, Meta, Microsoft и OpenAI вклучува „разумни мерки на претпазливост“, како што се дополнително означување и едукација за политички содржини генерирани од вештачка интелигенција, иако тоа нема да ја забрани практиката.
Но, лошите актери честопати ги прекршуваат владините регулативи и ограничувањата поставени од платформите.
Во отсуство на регулативи од Федералната изборна комисија (ФИК), неколку држави воведоа закони за употреба на вештачка интелигенција во политички реклами, а уште десетици држави поднесоа сметки на оваа тема. На државно ниво, регулирањето на вештачката интелигенција на избори е двопартиско прашање, рече Гилберт и постапките за доненсување соодветна регулатиува се долги.
ФИЦ отвори процес на донесување правила за вештачката интелигенција минатото лето, а агенцијата рече дека очекува да го реши некаде ова лето, објави Вашингтон пост. Дотогаш, политичките реклами со вештачка интелигенција не се ограничени со никакви правила на ФИЦ специфични за вештачката интелигенција.
„Се надеваме дека ќе успееме да постигнеме нешто на време“, вели Гилберт. „Се приближуваме кон таа точка и треба да се движиме навистина брзо“.