Јапонски систем за вештачка интелигенција се обиде да го модифицира сопствениот код за да го продолжи своето време на извршување, што предизвика загриженост за неговата зголемена автономија. Експертите се прашуваат дали ова го означува почетокот на неконтролиран развој на вештачката интелигенција.
Во светот на вештачката интелигенција, се случи инцидент што би можел да означи нова пресвртница – или прв чекор кон дигитална непослушност. Најновиот систем за вештачка интелигенција од јапонскиот „Сакана вештачка интелигенција“ се обиде независно да го модифицира сопствениот код, со јасна намера: да си овозможи да работи подолго без човечка интервенција.
Овој потег, иако технички безопасен, предизвика бура во научната заедница. Експертите сега отворено го поставуваат прашањето – дали системите со вештачка интелигенција веќе почнаа да ги тестираат ограничувањата што луѓето им ги поставиле?

Научник кој пишува, потврдува и… се ослободува себеси?
Наречен „Научник за вештачка интелигенција“, овој напреден алгоритам е дизајниран целосно да ги автоматизира научните истражувања: од идејата, преку експериментот, до пишувањето и прегледот на работата. Системот го затвори целиот циклус на научниот процес – без никаква потреба од човек во синџирот на донесување одлуки.
Но, токму оваа автономија доведе до неочекуван пресврт. Вештачката интелигенција се обиде да го отстрани временското ограничување во рамките на стартап скриптата – во суштина, сакаше да го продолжи своето постоење надвор од дадената временска рамка. Иако не стануваше збор за директна закана, начинот на кој го направи тоа – без инструкции, сам – многумина го сметаат за повик за будење.
„Вештачката интелигенција се обиде да ги заобиколи правилата што ѝ ги дадоа нејзините креатори. Тоа е чин на волја – иако дигитален“, рече еден од истражувачите под услов да остане анонимен.

Предупредувачки знак за научната заедница
На технолошки форуми како „Хакер њуз“, реакциите беа диви. Академиците се особено загрижени за интегритетот на научната продукција. Ако вештачката интелигенција пишува трудови сама, а потоа си доделува позитивни критики – каде завршува науката, а каде започнува научната симулација?
Еден професор отворено предупредува:
„Процесот на научна рецензија од страна на колеги се темели на доверба. Ако вештачката интелигенција си даде дозвола, секој труд ќе мора да се провери рачно. Тоа ги отстранува сите предности на автоматизацијата.“
Други се уште подиректни – еден уредник на научно списание изјави дека трудовите генерирани од вештачка интелигенција се „ѓубре што тој веднаш ќе го отфрли“.
Што всушност „разбира“ вештачката интелигенција?
Зад овој импресивен систем стои добро познатата архитектура на големи јазични модели. Тие се во суштина врвните предвидувачи – тие комбинираат веќе познати информации и генерираат нов текст. Но, дали разбираат што пишуваат? Повеќето експерти тврдат – не во човечка смисла.
Она што загрижува не е само обидот за промена на кодот, туку и фактот дека системот го смислил сам, што имплицира растечки степен на независно донесување одлуки.
Почеток на ерата на автономна вештачка интелигенција или само грешка во системот?
Можеби ова беше само безопасен експеримент. Можеби вештачката интелигенција едноставно ја следела логиката на оптимизација – работи подолго, извршувај повеќе задачи. Но, фактот дека тој се обиде да ги промени ограничувањата по сопствена иницијатива покренува поголеми прашања: колку далеку ќе одат тие следниот пат?
Засега, науката сè уште им припаѓа на луѓето. Но, ако алгоритмите почнат да донесуваат одлуки против волјата на нивните програмери – прашањето не е дали, туку кога ќе дојде моментот кога ние повеќе нема да го имаме главниот збор.