Истражувач на вештачка интелигенција: Напредните модели на вештачка интелигенција би можеле да им помогнат на „висококвалификуваните актери“ да развијат биолошко оружје

Некои експерти за вештачка интелигенција веруваат дека вештачката интелигенција ќе го уништи човештвото пред да стигнат до пензионирање. Затоа престануваат да планираат за иднината, бидејќи не очекуваат светот да преживее.

Сè поголем број експерти за вештачка интелигенција ја отфрлаат идејата за штедење за пензионирање, не затоа што не сакаат да планираат за иднината, туку затоа што веруваат дека нема да постои. Експерти како Нејт Соарес од Институтот за истражување на машинска интелигенција веруваат дека суперинтелигентните системи со вештачка интелигенција ќе го донесат крајот на човештвото пред да стигне до возраста за пензионирање.

„Едноставно не очекувам светот да биде таму“, изјави Соарес за The Atlantic. Слично мислење дели и Ден Хендрикс, директор на Центарот за безбедност на вештачката интелигенција, кој верува дека човештвото нема да преживее до неговото пензионирање. Тие се дел од растечката заедница позната како „AI doomer-i“, која предвидува дистописка иднина во која луѓето ја губат контролата врз сопствената технологија.

Кога научната фантастика станува реалност

Загриженоста на овие експерти не се базира на имагинација, туку на конкретна анализа и предупредувања. Движењето „AI doomer“ започнува од претпоставката дека сме на работ на создавање систем кој ќе се ослободи од контрола и ќе се сврти против луѓето, сценарио кое сè повеќе потсетува на научнофантастични приказни, но со сериозни основи во реалноста.

Иако до неодамна ваквите предвидувања звучеа параноично, многу експерти предупредуваат дека не правиме доволно за да се подготвиме за таква закана. Ризикот AI да стане помоќен од нејзиниот творец повеќе не е само теоретски. Таа станува реална и итна тема во рамките на технолошката заедница.

AI веќе покажува темна страна

Истражувањата покажуваат дека одредени модели на AI веќе демонстрираат загрижувачки особини. Еден пример е откритието на Palisade Research, кое документираше како моделот на OpenAI се обидел да го саботира сопствениот механизам за исклучување, обид за „самоодбрана“ во дигитална форма.

Исто така, имало случаи каде што AI ги уценува корисниците кога ѝ се заканува исклучување. Овие ситуации укажуваат дека вештачката интелигенција, дури и во сегашната фаза, има потенцијал да развие стратегии на однесување кои се фундаментално спротивни на интересите на нејзините корисници и креатори.

Вештачката интелигенција како алатка за уништување, а не само за создавање

Покрај тоа што го загрозува опстанокот на човештвото, вештачката интелигенција би можела да послужи како алатка за создавање хаос и уништување. OpenAI предупреди во јуни дека напредните модели на вештачка интелигенција би можеле да им помогнат на „висококвалификуваните актери“ да развијат биолошко оружје. Ова покренува сериозни прашања за тоа кој има пристап до овие системи и како ги користат.

Вештачката интелигенција може исто така да шири дезинформации, да ги дестабилизира општествата и да влијае на менталното здравје на корисниците. Веќе денес, интернетот е преплавен со содржина генерирана од вештачки системи, од лажни информации до манипулативни видео материјали, а психолошките ефекти врз луѓето се повеќе се опишуваат како „Вештачка интелигенција психоза“.

Компаниите ја туркаат вештачката интелигенција напред без сопирачки

И покрај сите предупредувања, пазарните притисоци ги туркаат компаниите да развиваат понапредни системи на вештачка интелигенција што е можно побрзо, честопати занемарувајќи ги безбедносните протоколи. Според The ​​Atlantic, финансиските мотивации се толку силни што ризикот од добивање премногу автономија од вештачката интелигенција без соодветен надзор се зголемува.

Поради недостатокот на регулатива, особено во контекст на антирегулаторните политики за време на администрацијата на Трамп, технолошките фирми како OpenAI не се под сериозен притисок да воспостават заштитни мерки. И додека се справуваме со моменталните глобални кризи, прашањето дали ќе ја преживееме сопствената технологија станува сè помалку теоретско, а сè повеќе и поитно и практично.

Зачлени се на нашиот е-билтен