Search
Close this search box.
Search
Close this search box.

Дали вештачката интелигенција го има одговорот за подобри владини услуги?

Долго пред да се појави ChatGPT, владите сакаа да користат чат-ботови за да ги автоматизираат нивните услуги и совети.

Тие рани чат-ботови „се стремеле да бидат поедноставни, со ограничени разговорни способности“, вели Колин ван Нордт, истражувач за употреба на вештачка интелигенција во владата и со седиште во Холандија, пишува Би-Би-Си.

Но, појавата на генеративната вештачка интелигенција во последните две години ја оживеа визијата за поефикасна јавна услуга, каде што советниците слични на луѓето можат да работат цело време, одговарајќи на прашања за бенефиции, даноци и други области каде владата има интеракција со јавноста.

Генеративната вештачка интелигенција е доволно софистицирана за да дава одговори слични на луѓето и доколку е обучена за доволно квалитетни податоци, теоретски би можела да се справи со секакви прашања за владините служби.

Но, генеративната вештачка интелигенција стана добро позната по тоа што прави грешки или дури и дава бесмислени одговори – таканаречени халуцинации.

Во Обединетото Кралство, владината дигитална служба (GDS) изврши тестови на чет-бот базиран на ChatGPT наречен GOV.UK Chat, кој ќе одговори на прашањата на граѓаните за низа прашања во врска со владините услуги.

Во блог пост за нивните рани наоди, агенцијата забележа дека речиси 70% од оние кои се вклучени во испитувањето ги сметаат одговорите корисни. Сепак, имаше проблеми со „неколку“ случаи на системот да генерира неточни информации и да ги прикаже како факт. Блогот, исто така, покрена загриженост дека може да има погрешна доверба во систем кој понекогаш може да биде погрешен.

„Генерално, одговорите не го достигнаа највисокото ниво на точност што се бара за страница како GOV.UK, каде што фактичката точност е од клучно значење. Брзо го повторуваме овој експеримент за да се справиме со прашањата за точноста и доверливоста“.

Други земји исто така експериментираат со системи базирани на генеративна вештачка интелигенција.

Португалија го објави Практичниот водич за правда во 2023 година, чет-бот осмислен да одговори на основни прашања за едноставни теми како што се бракот и разводот. Четботот е развиен со средства од Центарот за закрепнување и отпорност на Европската унија (RRF).

Проектот од 1,3 милиони евра се базира на јазичниот модел GPT 4.0 на OpenAI. Освен што ги покрива бракот и разводот, тој обезбедува и информации за основање компанија.

Според податоците на португалското Министерство за правда, 28.608 прашања биле поставени преку водичот во првите 14 месеци од проектот.

Кога му го поставив основното прашање: „Како можам да основам компанија“, се покажа добро.
Но, кога прашав нешто покомплицирано: „Може ли да основам компанија ако сум помлад од 18 години, но сум оженет?“, се извини што нема информации за да одговори на тоа прашање, пишува Би-Би-Си.

Извор од министерството признава дека сè уште има недостатоци во однос на доверливоста, иако погрешните одговори се ретки.

„Се надеваме дека овие ограничувања ќе бидат надминати со одлучувачко зголемување на нивото на доверба на одговорите“, вели изворот.

Ваквите недостатоци значат дека многу експерти советуваат да се внимава – вклучувајќи го и Колин ван Нордт.

„Појде наопаку кога четботот се користи како начин да се заменат луѓето и да се намалат трошоците“.

Би бил поразумен пристап, додава тој, доколку се гледаат како „дополнителна услуга, брз начин за наоѓање информации“.

Свен Нихолм, професор по етика на вештачка интелигенција на Универзитетот Лудвиг Максимилијанс во Минхен, го истакнува проблемот со одговорноста.

„Чет-ботот не може да се замени со државен службеник. Човечкото суштество може да биде одговорно и морално одговорно за своите постапки.

Четботите со вештачка интелигенција не можат да бидат одговорни за она што го прават. Јавната администрација бара одговорност, па затоа бара и човечки суштества“, вели тој.

Нихолм, исто така, го истакнува проблемот со доверливоста.

„Поновите типови на чет-ботови создаваат илузија дека се интелигентни и креативни на начин на кој постарите типови на чет-ботови не го правеа тоа порано. Постојано, овие нови и поимпресивни форми на чет-ботови прават глупави грешки – ова понекогаш може да биде хумористично, но потенцијално може да биде и опасно, ако луѓето се потпрат на нивните препораки“.

Ако ChatGPT и другите модели на големи јазици (LLM) не се подготвени да дадат важен совет, тогаш можеби би можеле да ја разгледаме практиката во Естонија како алтернатива.

Кога станува збор за дигитализирање на јавните услуги, Естонија беше еден од лидерите. Од почетокот на 1990-тите, таа гради дигитални услуги, а во 2002 година воведе дигитална лична карта која им овозможува на граѓаните пристап до државните услуги. Затоа, не е чудно што Естонија е на чело во воведувањето чет-ботови.

Нацијата во моментов развива пакет на чет-ботови за државни услуги под името Bürokratt.

Сепак, чет-ботови во Естонија не се засноваат на модели на големи јазици (LLM) како ChatGPT или Gemini на Google.

Наместо тоа, тие користат природен јазик за обработка (NLP), технологија која му претходеше на најновиот бран на вештачка интелигенција.

Естонските NLP алгоритми го разложуваат барањето на мали сегменти, ги идентификуваат клучните зборови и од тоа заклучуваат што сака корисникот.
Во Bürokratt, одделенијата ги користат нивните податоци за обука на чет-ботови и проверка на нивните одговори.

„Доколку Bürokratt не го знае одговорот, разговорот ќе биде предаден на агентот за поддршка на клиентите, кој ќе го преземе разговорот и ќе одговори“, вели Каи Калас, раководител на Одделот за лични услуги во Управата за информациски систем на Естонија.

Тоа е систем со поограничен потенцијал од оној заснован на ChatGPT, бидејќи моделите на NLP се ограничени во нивната способност да имитираат човечки говор и да детектираат навестувања за нијанси во јазикот.

Сепак, тие веројатно нема да дадат погрешни одговори.

„Некои рани чат-ботови ги принудија граѓаните да избираат опции за прашања. Во исто време, тоа овозможи поголема контрола и транспарентност за тоа како работи и одговара чет-ботот“, .

Четботите базирани на LLM често имаат многу поголем квалитет на разговорот и можат да дадат повеќе нијансирани одговори. Сепак, тоа доаѓа по цена на помала контрола на системот, а исто така може да даде различни одговори на истото прашање. (Фронтлајн)

Зачлени се на нашиот е-билтен