Некои од најпознатите модели на вештачка интелигенција не ги исполнуваат европските регулативи во клучните области како отпорот на сајбер напади и дискриминаторските резултати, покажуваат податоците на Европската унија.
Европската унија долго време расправаше за новите прописи за вештачка интелигенција пред OpenAI да го објави ChatGPT кон крајот на 2022 година. Огромната популарност и јавната дебата за потенцијалните егзистенцијални ризици на овие модели ги поттикнаа законодавците да создадат специфични правила за системи за вештачка интелигенција за „општа намена“ (GPAI), известува Ројтерс.
Новата алатка, која беше поздравена од претставници на Европската унија, тестираше генеративни модели на вештачка интелигенција развиени од големи технолошки компании како Мета и OpenAI, во согласност со сеопфатниот закон за вештачка интелигенција на ЕУ, кој ќе стапи на сила во фази во следните две години.
Рамката, развиена од швајцарскиот стартап LatticeFlow AI и неговите партнери во два истражувачки институти, ETH Цирих и бугарскиот INSAIT, дава оценки на моделите кои се движат од нула до еден во десетици категории, вклучувајќи техничка робусност и безбедност.
На листата објавена денеска, моделите развиени од Alibaba, Anthropic, OpenAI, Meta и Mistral добија просечни оценки од 0,75 или повисоки. Сепак, алатката „Large Language Model (LLM) Checker“ откри одредени слабости во клучните области, што укажува на тоа каде компаниите можеби ќе треба да ги фокусираат ресурсите за да обезбедат усогласеност со регулативата.
Компаниите кои нема да го почитуваат Законот за вештачка интелигенција ќе се соочат со казни од 35 милиони евра или седум отсто од глобалниот годишен промет. Иако ЕУ сè уште работи на тоа како ќе се имплементираат правилата за генеративни алатки како ChatGPT, тестот веќе укажува на одредени области каде што технолошките компании ризикуваат да го прекршат законот.