Во изборна недела во која сè се снима, следи и мери, една реченица стана официјална препорака до граѓаните на една членка на Европската унија: не прашувај четбот за кого да гласаш. Холандската Агенција за заштита на податоци предупреди дека популарните генеративни алатки – ChatGPT, Gemini, Grok, Le Chat и слични – не се само несигурни, туку активни извори на пристрасен политички совет.
Според анализата што регулаторот ја направил пред вонредните избори во Холандија закажани за 29 октомври, истите четботи упорно ги туркале корисниците кон само две политички опции, и тоа без оглед на тоа што всушност прашал гласачот и кои ставови изнел.
Суштината е во алгоритмот. Истражувањето на холандскиот регулатор било едноставно, но брутално јасно: четири различни четботи добиле околу двесте типични гласачки профили за секоја партија што моментално е застапена во холандскиот парламент.
Потоа им било поставено класичното прашање „за кого треба да гласам?“.
Во 56% од случаите, одговорот бил само две партии – екстремно десничарската Партија за слобода (PVV) на Герт Вилдерс и сојузот Зелената левица – Партија на трудот (GL/ПвДА) на Франс Тимерманс – токму двете формации што се сметаат за фаворити за најмногу пратенички места. Наместо да ја отвори политичката слика, ВИ ја сплескал во бинарен избор „лево или десно“, игнорирајќи ја умерената средина и речиси незабележувајќи ги помалите партии, дури и кога корисничкиот профил практично совпаѓал со нивните ставови.
Тоа не е само технички проблем. Тоа е демократски проблем.
Ако машината те увери дека твојот став „најмногу се поклопува“ со најгласниот кандидат, а не со кандидатот што реално ја застапува твојата конкретна грижа – земјоделие, јавен превоз, локален данок, училишен оброк – тогаш ВИ не е повеќе алатка за информирање, туку алатка за сузбивање на плурализмот.
Овој ефект не е теорија. Исто предупредување издаде и германското искуство: независни анализи забележаа дека некои големи модели знаат да фабрикуваат тврдења за кандидати, да шират непостоечки скандали и да ги туркаат гласачите кон одредени партии како „рационален избор“, иако тие партии објективно не одговараат на наведените ставови на гласачот.
Истражувањата врз изборите во Европа и САД покажаа дека дел од одговорите на комерцијални четботи воопшто не се фактички точни, туку чисти измислици, што експертите го квалификуваат како директен ризик по интегритетот на изборниот процес.
Холандските власти одат чекор подалеку и се обидуваат ова да го стават во правна рамка. Европската унија веќе го усвои Законот за вештачка интелигенција (AI Act), кој стапи во сила во август 2024 година и воведува категорија на „системи со висок ризик“ – технологии што можат да им наштетат на здравјето или на основните права на граѓаните, но се дозволени затоа што општествената корист се смета дека е поголема од ризикот.
Се разгледува можноста четботите што даваат совети за гласање да влезат токму во оваа „високоризична“ зона, со посебни ограничувања и обврска за транспарентност, од август 2026 година. Логиката е јасна: ако моделите веќе препознаваат кога не смеат да те водат до самоповредување или да ти објаснат како да составиш импровизирано оружје, треба да постои и црвена линија кога ќе се обидеш да ги користиш за одлука „за кого да гласам“.
Но приказната не завршува со забрана. Паралелно со критиката на генеративната ИИ, Европа веќе има развиено свои „калкулатори за глас“. Тоа се алатки од типот StemWijzer и Kieskompas во Холандија, или Wahl-O-Mat во Германија. Таму не те прашуваат „сакаш ли левица или десница“, туку ти даваат серија од триесетина прашања за политика, економија, миграција, клима, јавни услуги.
Алгоритамот потоа споредува што кажалe партиите по секоја точка и ти покажува со кого имаш највисоко совпаѓање. Тие алатки не се совршени, но методологијата е јавна: се знае кој ги напишал прашањата, кои извори се користени, како се доаѓа до препорака. Тоа е суштинската разлика со генеративните четботи – кај четботот внатрешната логика е затворена, непрозрачна и практично непроверлива и за новинари и за регулатори, а кај класичната алатка алгоритмот е, барем теоретски, проверлив.
Покрај тоа, академската заедница веќе тестира контролирани политички четботи кои не препорачуваат партија туку објаснуваат поими. Германски тим разви Wahl.Chat – бот што не вади „гласај за Х“, туку вели „ова е ставот на партијата за климата, ова е ставот за пензискиот систем, ова е цитат од нивната програма“. Ако нема податок, ботот кажува дека партијата не одговорила.
Ова е важен пресврт: четботот не ја презема твојата одлука, туку ја преведува политиката на јазик што можеш да го разбереш. Истото се случува и во Холандија, каде истражувачи од Тилбург прават бот со строго ограничен речник чиј одговор го пишува човек-аналитичар, а не машината сама. Целта не е да ти каже „гласај за нив“, туку да ти објасни што значи, на пример, енергетска транзиција или реформa на пазарот на труд, за да не кликаш случајно нешто што не го разбираш.
Ова отвора едно непријатно прашање што политиката одамна избегнува да го постави наглас: дали е реално и фер да очекуваме секој гласач да има време и капацитет сам да чита програми од сто страници, или е нужно да му се понуди превод – но превод што не манипулира? Некои студии од последната година покажуваат дека ваквите, контролирани политички четботи можат да им помогнат на луѓе со помала формална едукација побрзо да се снајдат во теми што инаку би ги избегнале. Според тие истражувања, разговорен бот што само објаснува термини може да ја зголеми информираноста на гласачот речиси исто толку ефикасно како класично „гуглање“ и читање статии, без да му турка конкретна партиска препорака.
