Search
Close this search box.
Search
Close this search box.

Лидерите на Г7: „Безбеден“ развој на вештачката интелигенција

Иако на тридневниот самит во Хирошима, лидерите на Групата седум (Г7) првенствено се занимаваа со теми кои се однесуваат на продолжување на помошта за Украина, дополнителни санкции против Русија и намалување на влијанието на Кина, регулаторниот пристап кон вештачката интелигенција (ВИ) исто така беше дискутиран по првпат.

Договорите и плановите на лидерите на седум најнапредни светски економии укажуваат на итноста за справување со влијанието и ублажување на ризиците околу развојот на вештачката интелигенција, ги пренесува Радио Слободна Европа (РСЕ) анализите на светските медиуми.

Лидерите на Г7 повикаа на развој и усвојување на технички стандарди за да се одржи вештачката интелигенција „безбедна“, нагласувајќи дека правилата за дигитални технологии како што е вештачката интелигенција треба да цветаат „во согласност со заедничките демократски вредности“, посочува Ројтерс.

Повикот доаѓа откако Европската Унија овој месец се приближи до усвојување законодавство за регулирање на технологијата за вештачка интелигенција, потенцијално првиот сеопфатен закон за вештачка интелигенција во светот што може да создаде преседан меѓу напредните економии.

Иако постојат одредени разлики меѓу земјите околу регулирањето на вештачката интелигенција, лидерите на Г7 се согласија да формираат министерски форум наречен „Хирошима AI Процес“ за да разговараат за овие прашања.

Самитот следи по минатомесечниот состанок на министрите на Г7, каде што членовите на групата – САД, Јапонија, Германија, Велика Британија, Франција, Италија, Канада и ЕУ – соопштија дека треба да усвојат правила за вештачка интелигенција заснована на ризик.

Лидерите на Г7 велат дека одговорната употреба на вештачката интелигенција треба да биде усогласена со вредностите кои вклучуваат правичност, почитување на приватноста и „заштита од вознемирување, омраза и злоупотреба на интернет“, според агенцијата Франс прес.

Алатките за генерирање текст, како што се ChatGPT, креаторите на слики и музиката составена од вештачка интелигенција, предизвикаа возбуда, тревога и правни битки бидејќи креаторите ги обвинуваат за присвојување материјал без дозвола, пренесува АФП, додавајќи дека владите ширум светот се под притисок што поскоро да ги намалат ризиците.

Новиот јазичен модел на вештачка интелигенција од OpenAI ги принуди земјите ширум светот за првпат да се фокусираат на опасностите од дезинформации, хаос и физичко уништување на критичната инфраструктура, посочува Њујорк Тајмс.

Затоа, покрај дискусиите за Украина и Кина на самитот во Хирошима, лидерите на седумте најголеми демократски економии во светот ги одржаа првите разговори за заеднички пристап за регулирање на употребата на програмите за вештачка интелигенција како што е GPT-4.

Претходните обиди да се натера групата да се занимава со многу поедноставни технолошки прашања, како што е сајбер безбедноста, обично завршуваа со флоскули за „јавно-приватно партнерство“, и никогаш немало сериозна дискусија за правилата за насочување на употребата на офаназивно кибер оружје, додава весникот..

Сепак, како што истакна Њујорк тајмс, американските власти веруваат дека во случајот на чет-ботови, дури и нејасна дискусија може да помогне да се воспостават некои заеднички принципи: дека корпорациите што ги носат производите ќе бидат првенствено одговорни за безбедносните прашања и дека мора да има правила за транспарентност кои јасно укажуваат за тоа каков тип на податоци е обучен секој систем.

Тоа, велат официјалните лица, ќе овозможи дискусии за деталите за тоа како би изгледале тие први прописи.

Бидејќи земјите од Г7 се свесни за потенцијалните придобивки и ризици од генеративната вештачка интелигенција, во центарот на дискусиите на самитот на лидерите во Хирошима беше загриженоста за темпото на напредок na вештачката интелигенција што го надминува развојот на стандардите, поради што Самитот ја истакна важноста од дефинирање на „заштитни мерки“ за развојот на вештачката интелигенција, посочува Форбс.

Лидерите се согласија да одговорат на предизвикот и да преземат пристап „заснован на ризик“ за навигација на оваа непозната територија. Тие ги идентификуваа клучните области на кои треба да се фокусираат напорите: препознавање на важноста на ВИ, балансирање на нејзините ризици и придобивки, едукација за вештачката интелигенција и повикување на „заштитни огради“ кога станува збор за вештачката интелигенција.

За да се обезбеди одговорна и безбедна употреба на генеративната вештачка интелигенција, експертите веруваат дека е од клучно значење да се има сеопфатна регулаторна рамка која ги опфаќа приватноста, безбедноста и етиката, која ќе обезбеди јасни упатства и за развивачите и за корисниците на технологијата за вештачка интелигенција.

Вештачката интелигенција веќе не е плод на научна фантастика, туку составен дел од реалноста, подготвена да го трансформира светот на незамисливи начини, истакнува Форбс и оценува дека предизвикот не е да се спротивставиме на еволуцијата на вештачката интелигенција, туку да се осигураме дека патот на развојот е усогласен со заедничките вредности, општествените норми и колективната благосостојба, за да стане алатка за добро, катализатор за напредок и мотор за поправедна и поодржлива иднина, го пренесува РСЕ пишувањето на светските медиуми на оваа тема. (МИА)

Зачлени се на нашиот е-билтен