Search
Close this search box.
Search
Close this search box.

Работната група да го фати чекорот за креирање национална Стратегија за вештачка интелигенција

Употребата на вештачката интелигенција (ВИ) во недостиг на стратегија или регулатива, ги изложува граѓаните на ризик од потенцијална злоупотреба. Република Северна Македонија формираше работна група за Националната стратегија за вештачка интелигенција, но од 2021 година одржан е само еден состанок, пишува Порталб.мк.

Презентирањето на роботот Chat GPT, кој има способност да разговара како човек со висок степен на флуентност и кохерентност, го сврте вниманието на светот на употребата на вештачката интелигенција во служба на човекот, но и за можните опасности кои може да ги донесе.

Порталб.мк, во рамките на проектот ICEDA, разговараше со експерти и претставници на институциите на РСМ за тоа колку  нашата земја е подготвена за употреба на ВИ во јавниот сектор, дали имаме релевантна дигитална инфраструктура и кои се можните ризици од употребата на вештачката интелигенција во отсуство на една Национална стратегија.

Формирана е работна група за креирање Стратегија за вештачка интелигенција

До моментов, во Северна Македонија ниту една од државните институции не користи вештачка интелигенција.

На иницијатива на Фондот за иновации и технолошки развој (ФИТР) и вицепремиерот надлежен за економски прашања, формирана е работна група чија цел е креирање на првата Национална стратегија за вештачка интелигенција во Република Северна Македонија. Стратегијата е дел од планот за економски развој на Република Северна Македонија и дел од Националната стратегија за развој 2021-2041 година. Меѓутоа, од нејзиното формирање, оваа група се состанала само еднаш.

„Во понатамошните чекори, ФИТР во комуникација со УНДП, Светската банка како и други чинители кои имаат искуство и знаење во составувањето на Националната стратегија за вештачка интелигенција, ќе работат на обезбедувањето на експерт/консултант за управување или тим, кој ќе да помогне во процесот на составување на оваа стратегија со поддршка на работната група како и во процесот на создавање на финансиската конструкција за реализација на целиот процес“, велат од ФИТР, тврдејќи дека тоа е комплексен процес кој бара значителни човечки ресурси и време.

Од Агенцијата за заштита на личните податоци за Порталб.мк велат дека алгоритмите за вештачка интелигенција сè повеќе носат важни одлуки за животот на луѓето без никаков надзор или одговорност, а кога се применуваат несоодветно или неодговорно, вештачката интелигенција може да резултира со губење на работното место, предрасуди или расистички ставови итн.

„Поради оваа причина, иницијативите за преглед и воспоставување на стандарди се мотивирани од загриженоста за потенцијалната злоупотреба или несаканите последици од вештачката интелигенција. Технологијата на вештачката интелигенција има потенцијал да ги подобри нашите животи, нашата индивидуална и општествена безбедност и сигурност, но тоа не треба да биде на сметка на нашите основни вредности и права. Агенцијата за заштита на личните податоци, следејќи ги упатствата на ЕУ, го следи развојот и употребата на технологиите за вештачка интелигенција во нашата земја и се стреми кон балансиран пристап помеѓу брзината на технолошките промени и можните предизвици на правата за заштита на личните податоци, како едно од основните човекови права“, велат од АЗЛП.

Експертите оценуваат дека немањето стратегија или законска регулатива за употребата на вештачката интелигенција ги изложува граѓаните на ризик од злоупотреба, па затоа државата мора да преземе чекори за заштита на граѓаните.

Од граѓанското здружение „Конект“, чиј претставник е дел од работната група за Стратегијата за вештачката интелигенција, велат дека треба да бидеме загрижени за прашањето на приватноста, надзорот, спроведувањето на принципот заснован на ризик, но и почитувањето на човековите права. Според нив, доколку овие прашања не се земат предвид, се проценува дека може да има големи етички предизвици при развојот на системите управувани од вештачката интелигенција.

„Имајќи го предвид фактот дека во моментов се подготвува акт за вештачката интелигенција на ниво на ЕУ, а РСМ како земја кандидат за членство во ЕУ има обврска да ги транспонира регулативите и директивите кои во ЕУ се задолжителни, можеби е подобро да се започне со усвојување на националната стратегија. Она што можеме да го направиме во меѓувреме е да ја искористиме постоечката работна група за Националната стратегија за вештачката интелигенција и да формираме државен став за Конвенцијата за вештачката интелигенција, човековите права, демократијата и владеењето на правото“, велат од „Конект“.

Заштитата на личните податоци меѓу приоритетите

Во однос на ризикот од злоупотреба на личните податоци од страна на ВИ, од „Конект“ додаваат дека РСМ е целосно усогласена со европските регулативи и има механизам за нивна заштита, но постои ризик ако населението не е доволно едуцирано за тоа што се спаѓа во личните податоци, како да ги заштитат и механизмите со кои располагаат доколку се злоупотребат истите.

„Ризикот од злоупотреба на личните податоци доаѓа од самите луѓе, а не од вештачката интелигенција“, велат од Конект.

Универзитетскиот професор д-р. Петре Ламески, оценува дека недостигот на стратегија во државата и немањето видлива регулација ги изложува граѓаните на ризик од злоупотреба, а уште повеќе се кочи развојот на институциите кои доцнат во спроведувањето на ВИ во својата работа. Според професорот, проблем за државата е што софтверските апликации кои интензивно користат вештачка интелигенција ги прават и ги нудат компании со седиште во други земји и таму се обработуваат и користат нашите податоци, со што трети страни ги користат придобивките од користењето на вештачката интелигенција.

„Усвојувањето на стратегијата за вештачката интелигенција е нешто што веќе требаше да е направено, но сè уште не е доцна. Целта на стратегијата, според мене, треба да биде во насока на развивање на државните капацитети и субвенционирање на компаниите за воведување на вештачката интелигенција во работата и искористување на придобивките, но и воведување на механизмите за надзор и контрола кои би можеле да ги регулираат последиците од нејзината употреба, особено на оние економските. Веќе постои глобална трка во развојот на вештачката интелигенција на сите полиња. Македонија има капацитети кои доколку правилно се искористат ќе и овозможат да се искачи на високо место во светот во однос на прифаќањето на имплементацијата на вештачката интелигенција. Во таа смисла, потребно е внимателно да се имплементираат предложените регулаторни механизми од страна на поголемите држави, особено од ЕУ, и да се земат предвид државните интереси и потенцијалот за развој што го нуди ВИ“, вели професорот Ламески.

За злоупотребата на податоцитете при користењето на ВИ, професорот Ламески вели дека РСМ го усогласила законот за заштита на податоците со тој на ЕУ. Но, според него, ВИ може да биде контрапродуктивна, дури и штетна, доколку одлуките што ги одобрува се земаат здраво за готово и не се направи дополнителна евалуација. Како што вели професорот, веќе има развиени методи кои можат да се применат во пракса за да го одржи квалитетот на апликациите кои користат вештачка интелигенција и за да ја намали и елиминира потенцијалната штета што може да ја предизвика.

Др. Ментар Махмуди, кој работи како виш научник по применети науки во Амазон, за Порталб.мк ги наброја потенцијалните последици од користењето на вештачката интелигенција без стратегија или законски одредби.

  • Повреда на човековите права: Употребата на вештачката интелигенција без правила и механизми за надзор може да ги прекрши основните човекови права, како што се правото на приватност, личната слобода и правата поврзани со дискриминација.
  • Ширење на нееднаквоста: Алгоритмите за вештачка интелигенција може да се користат за создавање системи кои создаваат нееднаквост кон различни групи луѓе, вклучувајќи ги малцинствата и дискриминираните групи.
  • Зголемување на економска нееднаквост: ако вештачката интелигенција се користи за замена на човечките работници, тоа може да доведе до зголемена економска нееднаквост и невработеност.
  • Зголемување на ризикот од кибер криминал: ако системите за вештачка интелигенција не се безбедни, тие може да бидат ранливи на напади од кибер криминалци, што ќе доведе до губење на информации и прекршување на приватноста.
  • Контрола и безбедност: Во случаи на губење на контролата врз вештачката интелигенција, тоа може да предизвика опасни последици за луѓето и околината, на пр. автоматизацијата на беспилотните летала може да предизвика опасни несреќи.
  • Транспарентност и отчетност: ако ВИ не е транспарентна и јасна, може да биде тешко да се следи и анализира дали го направила вистинскиот избор и дали е праведна

Според д-р. Махмудиè, за да се минимизираат овие ризици, важно е државите и приватните организации да ја користат вештачката интелигенција мудро и со јасни цели. Ова може да вклучи развивање на закони и прописи за регулирање на нејзината употреба, како и тековен надзор на неговите апликации.

Во врска со злоупотребата на личните податоци, др. Ментар Махмуди вели дека може да биде опасно, бидејќи оваа технологија може брзо и ефикасно да собира, обработува и анализира големи податоци. Доколку оваа технологија се користи неодржливо или без почитување на правата за приватност на поединци, тогаш може да има сериозни последици за нив.

Според него, важно е институциите и компаниите да бидат свесни за ризикот од злоупотребата на личните податоци при користењето на вештачката интелигенција и да ги преземат неопходните мерки за заштита на приватноста на поединците. Тој исто така додава дека неопходно е државата и релевантните институции да инвестираат во обука и информирање на специјалистите и јавноста за ризикот од злоупотребата на личните податоци при употребата на вештачката интелигенција и да го промовираат развојот на културата на приватност и заштита на личните податоци.

Зачлени се на нашиот е-билтен

Најново