ВИ: Лажните факти и претстави на четботовите сѐ уште проблем

Лажните претстави и измислените факти, т.е. лагите се присутни во разговорите со чет-ботови со вештачка интелигенција, уште од самиот почеток, па подобрувањата на моделите теоретски би требало да ја намалат зачесетеноста тие несакани појави, пишува „Њујорк тајмс“ (New York Times).

Најновите водечки ВИ-модели на „Опен-АИ“ (OpenAI) – „ГПТ o3“ и „ГПТ o4‑мини“ се направени така што да ја имитираат човековата логика. За разлика од претходните модели коишто главно се насочуваат на генерирање тековен текст, овие два модела треба „да размислуваат чекор по чекор“. Според компанијата, „o3“ може да одговара и да ги надмине резултатите на докторандите по хемија, биологија и математика. Но, застрашувачкото е што потоа сите добиени податоци се земаат „здраво за готово“, па дури и погрешните одговори на „Чет-ГПТ“ моделите.

Имено, „Опен-АИ“ открива дека „ГПТ o3“ – „халуцинира“ на третина од задачите во тестот за јавни личности – двапати повеќе од минатогодишниот модел „o1“. Покомпактниот „o4-мини“ има уште полош случај, со „халуцинации“ во 48 отсто во слични задачи.

Сепак, зголемениот број на такви погрешни претстави, се вели, можеби не произлегува од погрешната логика на моделите. Наместо тоа, тие едноставно би можеле да бидат пообемни и „послободни“ во нивните одговори. Понекогаш „Чет-ГПТ“ е како „личност која самоуверено говори глупости“, се заклучува во извештајот.

Измислените факти може да предизвикуваат сѐ повеќе проблеми, како што ВИ веќе влегува и сѐ повеќе се проширува во училниците, канцелариите, болниците и владините кабинети. Напредната ВИ може да помогне при пишување апликации за работа, решавање на проблеми со фактури или анализа на табели, но и покрај сѐ – колку повеќе ВИ се користи, толку помалку има простор за грешки.

Додека овие прашања не се решат, секој одговор од ВИ-моделот треба да се прифаќа со недоверливост и да се проверува.  

Зачлени се на нашиот е-билтен