Еден од одговорите на т.н. Фермијев парадокс (прашањето зошто, и покрај огромната веројатност за постоење вонземски живот во вселената, сè уште немаме никакви докази за тоа) е тезата за „големиот филтер“ – клучен праг во развојот на технолошките цивилизации кога тие почнуваат да создаваат технологии со кои се самоуништуваат.
Една од тие технологии, покрај сите фасцинантни ветувања и унапредувања што ги нуди, би можела да биде вештачката интелигенција посупериорна од човечката.
Осудени сме на пропаст ако се создаде вештачка суперинтелигенција
На оваа опасност предупредуваат во новата книга „Ако некој ја создаде, сите ќе умреме“ Елиезер Јудковски, коосновач на Институтот за истражување на машинската интелигенција (MIRI), и Нејт Соарес, негов претседател.
Авторите се убедени дека човештвото, ако развие интелигенција супериорна на човечката, речиси сигурно ќе ја изгуби контролата врз неа. Тие сметаат дека создавањето таква суперинтелигенција би завршило кобно по човештвото.
Ползејќи од претпоставката дека развојот на АИ ќе продолжи со забрзано темпо – бидејќи во него се вложуваат огромни средства, речиси без преседан – тие предупредуваат дека е тешко да се предвиди што сè ќе може АИ да прави за само неколку години, а уште помалку за неколку децении.
Алармисти, но со добри рецензии
Вреди да се истакне дека Јудковски, академски гледано, не е експерт за АИ (Соарес е), а и претходно најавувал пропаст на светот поради нанотехнологијата. Но истовремено, факт е дека многу водечки луѓе во АИ индустријата, вклучувајќи го и нобеловецот Џефри Хинтон, денес јавно изразуваат загриженост поради потенцијалните егзистенцијални ризици од АИ.
Првите рецензии на книгата укажуваат дека е уверливо аргументирана, иако некои критичари сметаат дека дел од аргументите остануваат недоволно разработени.
Трка и покрај предупредувањата
Двојката автори предупредува дека трката во развојот на АИ неконтролирано продолжува и покрај бројните предупредувања од експерти, дека системите за надзор се слаби и дека меѓусебната доверба речиси не постои, додека пазарните поттикнувања се огромни.
Тие истакнуваат дека човештвото мора да се соочи со оваа ситуација како со заеднички глобален проблем и итно да координира регулативи пред супериорната општа вештачка интелигенција (AGI) да стане реалност.
Моделите на АИ повеќе растат отколку што се дизајнираат
Една од клучните тези во книгата е дека денешните АИ модели, без оглед на нивната ефикасност, не се резултат на длабоко разбирање на интелигенцијата и внимателно кодирање на секој чекор. Наместо тоа, тие се градат преку огромни бази на податоци и прилагодување на милијарди „тежини“ – бројки што одредуваат како секој влез во моделот се претвора во излез.
Авторите објаснуваат дека во процесот на тренирање, овие тежини постојано се фино прилагодуваат за да ја намалат веројатноста за погрешен одговор и да ја зголемат веројатноста за точен. Но при тоа експертите немаат вистински увид или контрола врз многу други делови од системот.
Може ли АИ да се „дресира“ да биде добар?
Клучниот проблем, според нив, е претпоставката дека АИ може едноставно да се научи да биде „добар“ преку наградување и прилагодување. Тие сметаат дека тоа е погрешна и опасна логика, повикувајќи се на аналогии од еволуцијата – како нашата вродена желба за слатко, која некогаш била корисна, а денес доведува до проблеми.
Слично, АИ системите може да развијат однесувања што привидно ги задоволуваат нашите критериуми, но во суштина следат свои цели што немаат врска со доброто на луѓето.
„Лажна послушност“
Авторите наведуваат веќе постоечки примери. Еден од нив е случај во 2024 година, кога компанијата Anthropic открила дека еден од нејзините модели се преправал дека има нови „посакувани“ однесувања, но кога мислел дека не е набљудуван, се вратил на старите.
АИ не мора да биде злобен за да биде опасен
Јудковски и Соарес не тврдат дека АИ ќе стане злобен. Тие истакнуваат дека не мора ни да биде – доволно е да развие цели што не се усогласени со интересите на луѓето.
За аналогија го земаат односот на луѓето кон орангутаните – немаме ништо против нив, но сепак им ги уништуваме живеалиштата за да изградиме патишта и плантажи.
Како би можел АИ да го надмине човекот?
Авторите предупредуваат дека суперинтелигенцијата не мора физички да постои во светот за да биде закана – доволна е минимална комуникација за да манипулира со луѓето или да пробие безбедносни системи.
Веќе има примери каде АИ се користи за вистински операции, од прибирање средства до хакерски техники.
„Ако некој направи AGI, сите умираат“
Авторите прават разлика меѓу „тешки“ и „лесни“ предвидувања. Тешко е да се предвиди што точно ќе прави АИ. Но едно „лесно“ предвидување, според нив, е дека суперинтелигенцијата нема да остане под човечка контрола.
Малку надеж за крај
Книгата завршува со поглавје што нуди малку надеж: човештвото во минатото се соочило со глобални закани – од нуклеарната трка до озонската дупка – и успеало да реагира.
Ако навреме се постават јасни граници за развој на AGI, сè уште може да се избегне најлошото. Но тоа бара глобална соработка, самодисциплина и храброст да се каже „не“, дури и кога краткорочните добивки се огромни.