Вештачка интелигенција: Не „халуцинираат“ ботовите, туку нивните творци (2)

Кога немаме доверба во она што го читаме и гледаме во нашата сè поморничава медиумска средина, не можеме да ги решиме итните заеднички проблеми. Секако, кризата на доверба е постара од ботот ChatGPT, но нема сомнеж дека ширењето на длабоките фалсификати ќе биде придружено со експоненцијален раст на веќе разгорените култури на заговор.

Пишува: Наоми КЛАЈН

Халуцинација #1: ВИ ќе ја реши климатската криза

Речиси по правило, на врвот на листата на предности на вештачката интелигенција е тврдењето дека овие системи некако ќе ја решат климатската криза. Го слушавме тоа од Светскиот економски форум, Советот за надворешни односи и Бостонската консалтинг група, кои објаснуваат дека вештачката интелигенција „може да се користи за поддршка на сите засегнати страни во преземањето поинформиран пристап базиран на податоци за борба против емисиите на јаглерод, како и градење поеколошки општеството. Може да послужи и за реорганизирање на товарот на глобалните климатски напори во корист на најранливите региони“. Поранешниот извршен директор на Google, Ерик Шмит ја сумираше поентата кога рече дека вреди да се преземат ризици со вештачка интелигенција бидејќи „ако размислувате за најголемите проблеми во светот, сите тие се навистина тешки – климатските промени, човечките организации итн. Затоа, секогаш сакам луѓето да бидат попаметни“.

Според оваа логика, неуспехот да се „решат“ големите проблеми како климатските промени се должи на недостаток од памет. Нема врска што паметните луѓе со докторати и Нобелови награди со децении им кажуваат на нашите влади што треба да се случи за да се извлечеме од оваа неволја: драстично намалување на емисиите, да не се експлоатира јаглеродот од земјата, решавање на прекумерната потрошувачка од богатите и недоволна потрошувачка од сиромашните, бидејќи ниту еден извор на енергија не е лишен од еколошката цена.

Овие многу паметни совети се игнорираат не затоа што имаме проблем со разбирање на прочитаното, ниту затоа што некако ни требаат машини да размислуваат наместо нас. Едноставно, дејствијата што ги бара климатската криза би значеле напуштање на инфраструктура за фосилни горива вредна милијарди долари и оспорување на моделот на раст базиран на потрошувачка, кој е во срцето на нашите меѓусебно поврзани економии. Климатската криза, всушност, не е мистерија или загатка што се уште не сме ја решиле поради недоволно издржани податоци. Знаеме што е потребно, но тоа не би било брзо решение – туку промена на парадигмата. Да се ​​чека машините да дојдат до попријатно и/или поисплатливо решение не е лек за оваа криза, туку уште еден нејзин симптом.

Игнорирајте ги халуцинациите и излегува дека е многу поверојатно начинот на кој вештачката интелигенција се инкорпорира на пазарот, всушност, активно ја влошува климатската криза. Прво, џиновските сервери кои овозможуваат инстант есеи и уметнички дела од чет-ботови се огромен и растечки извор на емисии на јаглерод. Второ, додека компаниите како Кока-Кола се впуштаат во огромни инвестиции во примената на генеративната вештачка интелигенција за да поттикнат поголема продажба, сè појасно е дека оваа нова технологија ќе се користи на ист начин како што се користеше последната генерација на дигитални алатки: дека она што започнува со возвишени ветувања за ширење слобода и демократија, завршува со микро-таргетирани реклами само за да можеме да купиме повеќе бескорисни и загадувачки работи.

Додека компаниите како Кока-Кола се впуштаат во огромни инвестиции во примената на генеративната вештачка интелигенција за да поттикнат поголема продажба, сè појасно е дека оваа нова технологија ќе се користи на ист начин како што се користеше последната генерација на дигитални алатки: дека она што започнува со возвишени ветувања за ширење слобода и демократија, завршува со микро-таргетирани реклами само за да можеме да купиме повеќе бескорисни и загадувачки работи.

Постои и трет фактор, кој е малку потешко да се одреди. Колку повеќе нашите медиумски канали се преплавени со т.н длабоки фалсификати (*) и клонови од разни видови, имаме се посилен впечаток дека тонеме во информативен жив песок. Ова добро го разбира Џефри Хинтон, кого често го нарекуваат „Кум на вештачката интелигенција“, бидејќи невронската мрежа што ја разви пред повеќе од една деценија е во основата на денешните големи јазични модели. Хинтон штотуку ја напушти врвната позиција во Гугл за да може слободно да зборува за ризиците од технологијата што помогна да се создаде, вклучувајќи го, како што рече, ризикот дека луѓето „повеќе не се во можност да знаат што е вистината“.

Тоа е значајна перспектива наспроти тврдењето дека вештачката интелигенција ќе помогне во борбата против климатската криза. Затоа што кога немаме доверба во она што го читаме и гледаме во нашата сè поморничава медиумска средина, не можеме да ги решиме итните заеднички проблеми. Секако, кризата на доверба е постара од ботот ChatGPT, но нема сомнеж дека ширењето на длабоките фалсификати ќе биде придружено со експоненцијален раст на веќе разгорените култури на заговор. Дали технолошките и научните откритија ќе бидат поприфатливи ако се направени од вештачка интелигенција? Кога ќе се разбие споделената реалност, нема да можеме да дадеме никакво логично решение на проблемот.

Халуцинација #2: ВИ ќе овозможи мудро управување

Оваа халуцинација ја повикува блиската иднина каде што политичарите и бирократите, потпирајќи се на огромната агрегирана памет на системите за вештачка интелигенција, можат да „забележат модели на потреба и да развијат планови засновани на докази“ кои ќе им бидат од поголема корист за граѓаните. Тврдењето доаѓа од документ објавен од Фондацијата Бостон Консалтинг Груп и копиран од многу тинк-тенкови и менаџмент консултанти. Не е ни чудо што компаниите ангажирани да ги идентификуваат заштедите на трошоците за владите и корпорациите, често преку отпуштања, најбрзо скокнаа во возот на вештачката интелигенција. Глобалната мрежа за овој тип на услуги PwC (поранешен PricewaterhouseCoopers) неодамна најави инвестиција од милијарда долари, додека поврзаните компании Bain & Company и Deloitte се ентузијасти за примената на овие алатки за поголема „ефикасност“ на своите клиенти.

Како и со тврдењата за климатските промени, треба да се запрашаме дали политичарите наметнуваат сурови и неефикасни политики затоа што страдаат од недостаток на докази? Или од нивната неспособност да ги „видат шаблоните“? Зарем самите не можат да ја разберат човечката цена на строгото штедење во јавното здравство среде пандемија, или отсуството на инвестиции во некомерцијални станови додека нашите градски паркови се полни со шатори, или одобрувањето за нова инфраструктура за фосилни горива додека температурите се зголемуваат? Дали им е потребна вештачка интелигенција за да ги направи „попаметни“ – или се доволно паметни за да знаат кој ќе им ја финансира нивната следна кампања или ќе им се приклонат на ривалите, доколку застранат?

Би било убаво ако вештачката интелигенција би можела да ја прекине врската помеѓу корпоративните пари и непромислените политички одлуки – но таа врска објаснува зошто на компаниите како Гугл и Мајкрософт им беше дозволено да ги објавуваат своите чет-ботови на јавноста, и покрај лавината предупредувања и познати ризици. Шмит и другите со години водат кампањи за лобирање кај двете страни во Вашингтон, велејќи им дека Кина ќе ги надмине западните сили ако не им се дозволи слободно да напредуваат во развојот на генеративната вештачка интелигенција, неоптоварена со сериозни регулативи. Минатата година, најголемите технолошки компании потрошија рекордни 70 милиони долари за лобирање во Вашингтон – повеќе од нафтената индустрија – и тоа не ги смета потрошените милиони „на широк опсег на нивните трговски групи, непрофитни организации и консултантски фирми“.

Би било убаво ако вештачката интелигенција би можела да ја прекине врската помеѓу корпоративните пари и непромислените политички одлуки – но таа врска објаснува зошто на компаниите како Гугл и Мајкрософт им беше дозволено да ги објавуваат своите чет-ботови на јавноста, и покрај лавината предупредувања и познати ризици.

А сепак, и покрај тоа што точно се знае како парите ја обликуваат политиката во нашите национални престолнини, сето тоа е заборавено додека Сем Алтман, извршен директор на OpenAI – производителот на моделот ChatGPT – зборува за најдобри сценарија за своите производи. Напротив, се чини дека замислува свет сосема поинаков од нашиот, каде што политичарите и индустријата носат одлуки врз основа на најдобри податоци и никогаш не би загрозиле безброј животи заради профит и геополитичка предност. Што нè доведува до уште една халуцинација.

Халуцинација бр. 3: Можеме да им веруваме на технолошките гиганти дека нема да го доуништат светот

Запрашан дали е загрижен за грозничавата златна треска што ChatGPT веќе ја започна, Алтман рече дека е, но оптимистички додаде: „Се надевам дека сè ќе успее.“ За колегите извршни директори во другите технолошки компании – оние кои брзаат да ги исфрлат нивните четботи – рече: „Мислам дека подобрите ангели ќе победат“.

За разлика од сценаријата во халуцинациите на луѓето кои најмногу профитираат од вештачката интелигенција, Google не донесува одлуки врз основа на она што е најдобро за светот – туку на она што е најдобро за акционерите на корпорацијата, кои не сакаат да ги пропуштат најновиот тренд во монентот додека Microsoft, Meta и Apple веќе наголемо работат.

Подобри ангели? Во Google? Прилично сум сигурен дека повеќето беа отпуштени од компанијата поради објавување критички трудови за вештачката интелигенција или прозивањето на компанијата за расизам и сексуално вознемирување на работното место. Повеќе „подобри ангели“ дадоа отказ од своите работни места крајно вознемирени, како Хинтон. За разлика од сценаријата во халуцинациите на луѓето кои најмногу профитираат од вештачката интелигенција, Google не донесува одлуки врз основа на она што е најдобро за светот – туку на она што е најдобро за акционерите на корпорацијата, кои не сакаат да ги пропуштат најновиот тренд во монентот додека Microsoft, Meta и Apple веќе наголемо работат.

Халуцинација бр. 4: ВИ ќе не ослободи од монотоното р’мбање

Ако добронамерните халуцинации од Силиконската долина некому звучат можно, има едноставна причина за тоа. Генеративната вештачка интелигенција моментално е во стадиум на квази-социјализам. Тоа е веќе добро познат стратешки потег на Силиконската долина. Прво се креира атрактивен производ (пребарувач, алатка за мапирање, социјална мрежа, видео или платформа за споделување возење), кој потоа се дава на јавноста да го користи бесплатно или речиси бесплатно неколку години, без видлив одржлив бизнис модел ( „Играјте си со ботови“, ни велат, „откријте што можете да создадете!“). Во меѓувреме, зборувајте за тоа како тоа го правите само од желба да создадете „јавен форум“ или „информациска заедница“ или да ги „поврзете луѓето“ додека ширите слобода и демократија (а не сте „злобни“). Дозволете им на луѓето да се закачат на овие бесплатни алатки, а вашите конкуренти да прогласат банкрот. Кога полето е исчистено, време е за насочени реклами, постојан надзор, договори со полицијата и војската, продажба на податоци од црните кутии и наплата за услугите на клиентите.

Многу животи и сектори беа десеткувани од претходните повторувања на оваа стратегија, од такси превозот, преку пазарот за изнајмување до локалните медиуми. Тоа наскоро може да ни звучи како мала загуба, бидејќи во револуцијата на вештачката интелигенција наставниците, програмерите, визуелните уметници, новинарите, преведувачите, музичарите, здравствените работници и многу други сега се соочуваат со изгледите да бидат заменети со корумпиран софтвер.

Не грижете се, халуцинираат љубителите на вештачката интелигенција, ќе биде прекрасно. Кој воопшто сака да работи? Ни говорат дека генеративната вештачка интелигенција нема да значи крај на вработувањето, туку само крај на „досадните работни места“ – каде што четботите обврзно ќе ги извршуваат сите тие монотони задачи што убиваат во поим, а луѓето само ќе ги надгледуваат. Алтман, од своја страна, гледа иднина каде што работата „може да биде поширок концепт, не нешто што треба да го направите за да можете да јадете, туку нешто што е ваш креативен израз и начин да најдете исполнетост и среќа“.

Тоа е возбудлива визија за поубав, полежерен живот, споделена од многумина од левицата (вклучувајќи го и зетот на Карл Маркс, Пол Лафарг, кој напиша манифест наречен „Правото на безделничење“). Но, ние левичарите знаеме и дека ако заработувањето пари повеќе не е животен императив, тогаш мора да има други начини да ги задоволиме нашите потреби за засолниште и храна. Свет без тешка работа значи дека киријата мора да биде бесплатна, здравствената заштита мора да биде бесплатна и секој човек мора да има неотуѓиви економски права. И одеднаш веќе не зборуваме за вештачка интелигенција – зборуваме за социјализам.

Бидејќи не живееме во рационалниот, хуманистички свет инспириран од „Ѕвездени патеки“, што се чини дека му се допаѓа на Алтман. Живееме во капитализам и во тој систем последиците од преплавување на пазарот со технологии кои можат да извршуваат економски задачи наместо безброј работници, нема да значат дека овие луѓе одеднаш ќе бидат слободни да филозофираат и компонираат музика. Тоа ќе значи дека овие луѓе ќе бидат на работ на бездната – додека уметниците ќе паднат меѓу првите.

Живееме во капитализам и во тој систем последиците од преплавување на пазарот со технологии кои можат да извршуваат економски задачи наместо безброј работници, нема да значат дека овие луѓе одеднаш ќе бидат слободни да филозофираат и компонираат музика. Тоа ќе значи дека овие луѓе ќе бидат на работ на бездната – додека уметниците ќе паднат меѓу првите.

Ова е и пораката од отвореното писмо на Моли Крабапл, кое ги повикува „уметниците, издавачите, новинарите, уредниците и лидерите на синдикатите на печатот да застанат во одбрана на човечките вредности против употребата на генеративни слики со вештачка интелигенција […] и да се посветат за поддршка на уметноста во уредувачките медиуми создадени од луѓе, а не од фарми на сервери“. Во отвореното писмо, кое досега го потпишаа стотици уметници, новинари и други, се наведува дека работата на сите, освен најелитните уметници, е „во опасност од исчезнување“. И според Хинтон, „кум на вештачката интелигенција“, нема причина да се верува дека заканата нема да се прошири. Можеби четботите ги отстрануваат „здодевно р’мбање“, но „тие би можеле да одземат повеќе од тоа“.

Крабапл и нејзините коавтори пишуваат: „Генеративната уметност со вештачка интелигенција е вампирска, се слави со уметничките дела на минатите генерации и е облеана во крвта на живите уметници.“ Сепак, постојат начини да се возвратиме: можеме да одбиеме да ги користиме овие производи и тоа да го бараме од нашите работодавци и влади. Писмото од истакнати експерти за етиката во вештачката интелигенција (вклучувајќи го и Тимнит Гебру, која беше отпуштена од Google во 2020 година затоа што се спротивстави на дискриминацијата на работното место) наведува некои од регулаторните алатки што владите можат веднаш да ги стават во сила – вклучително и целосна транспарентност за збировите податоци што се користат за обучување модели со вештачка интелигенција. Потписниците истакнуваат: „Не само што секогаш треба да ни биде јасно што гледаме кога ги гледаме синтетичките медиуми, туку од организациите што ги градат овие системи треба да се бара и да документираат и обелоденуваат податоци за обуки и за архитектурата на моделот… Треба да градиме машини кои работат за нас, наместо да го ‘прилагодиме’ општеството да биде машински читливо и опишувано“.

Иако технолошките компании би сакале да веруваме дека е веќе предоцна да се повлечат производите што ги заменуваат и имитираат луѓето, постојат релевантни правни и регулаторни преседани што можат да се применат. Така, на пример, американската Федерална трговска комисија (ФТЦ) ја принуди компанијата Кембриџ Аналитика, како и Евералбум, сопственик на апликацијата за фотографии, да уништат цели алгоритми за кои беше откриено дека биле обучени за нелегално преземени податоци и фотографии. Во раниот период администрацијата на Бајден изнесе многу смели тврдења за регулирање на големиот технолошки бизнис, вклучително и сузбивање на кражбата на лични податоци за да се изработат сопственички алгоритми. Како што се приближуваат претседателските избори, сега е време да се исполнат тие ветувања – да се спречи следниот бран на масовни отпуштања.

Светот на длабоки фалсификати, мимикрија и зголемена нееднаквост не е неизбежен. Тоа е збир на политички избори. Имаме можност да ја регулираме сегашната форма на вампирски чат-ботови – и да започнеме да градиме свет каде што највозбудливите ветувања за вештачка интелигенција се нешто повеќе и поинаку од халуцинациите на Силиконската долина. Затоа што ние ги трениравме машините. Сите ние. Но, ние никогаш не дадовме согласност за тоа.

Светот на длабоки фалсификати, мимикрија и зголемена нееднаквост не е неизбежен. Тоа е збир на политички избори. Имаме можност да ја регулираме сегашната форма на вампирски чат-ботови – и да започнеме да градиме свет каде што највозбудливите ветувања за вештачка интелигенција се нешто повеќе и поинаку од халуцинациите на Силиконската долина.

Затоа што ние ги трениравме машините. Сите ние. Но, ние никогаш не дадовме согласност за тоа. Машините се хранат со колективна човечка генијалност, инспирација и откритие (со неколку залаци од нашите лоши особини). Тие станаа модели за опкружување и присвојување, трошејќи ги и приватизирајќи ги нашите индивидуални животи, како и нашето колективно интелектуално и уметничко наследство. Нивната цел никогаш не беше да ги решат климатските промени или да ги направат нашите влади поодговорни и нашиот секојдневен живот порелаксиран. Секогаш треба да се профитира од масовното осиромашување, што во капитализмот е очигледна и логична последица на замената на човечките функции со ботови.

Дали сето тоа звучи премногу драматично? Старомоден и непромислен отпор кон возбудливите иновации? Зошто лоши предзнаци? Алтман не уверува: „Никој не сака да го уништи светот“. Можеби е така. Но, како што секојдневно ни покажуваат сè подлабоките климатски кризи и истребување, се чини дека многу моќни луѓе и институции се совршено спокојни со сознанието дека помагаат да се уништи стабилноста на планетарните животни системи, сè додека можат да остварат рекордни профити, уверени дека парите ќе ги заштитат нив и нивните семејства од најлошите последици. Како и многу суштества од Силиконската долина, и самиот Алтман верува во катастрофата за која се подготвува; уште во 2016 година тој се пофали: „Имам пиштоли, злато, калиум јодид, антибиотици, батерии, вода, гас-маски на израелските одбранбени сили и големо парче земја во Биг Сур каде што можам да се сокријам“.

Прилично сум сигурна дека тие факти кажуваат многу повеќе за тоа што Алтман всушност верува за иднината во која придонесува, отколку какви било распеани халуцинации што ј јавно ни ги раскажува.

(*) Deep fake, синтетичка видео и аудио содржина. Снимката од говорот на Морган Фримен во јули 2021 година ги покажа новите способности на технологијата за вештачка интелигенција – гласот беше позајмен од добар имитатор, но соодветните движења на устата и изразите на лицето беа изведени од машина.

Наоми КЛАЈН (Naomi KLEIN) е активистка и режисерка позната по нејзините политички анализи, поддршка на екофеминизмот, организирана работа, левичарска политика и критика на корпоративната глобализација, фашизмот, екофашизмот и капитализмот.

Извор: The Guardian/Пешчаник

Првиот дел од анализата на линкот долу:

Треба да знаете
Moже да ве интересира