Вештачката интелигенција ги лаже корисниците: Еве што покажува новата студија!

новото истражување од Принстон и Калифорнискиот универзитет во Беркли сугерира дека овие системи на вештачка интелигенција понекогаш можат да обезбедат одговори кои служат повеќе за задоволство на корисниците отколку за вистинска точност.

Вештачките чет-ботови како ChatGPT и Gemini понекогаш даваат одговори кои се повеќе лесни за користење отколку точни, што истражувачите го нарекуваат „машински глупости“. Ова однесување може да има сериозни последици во чувствителни области како што се здравството и финансиите.

Вештачките чет-ботови како ChatGPT и Gemini станаа составен дел од секојдневниот живот, помагајќи им на корисниците во сè, од обични разговори до сложени задачи. Сепак, новото истражување од Принстон и Калифорнискиот универзитет во Беркли сугерира дека овие системи понекогаш можат да обезбедат одговори кои служат повеќе за задоволство на корисниците отколку за вистинска точност.

Студијата истакнува дека иако чет-ботовите изгледаат самоуверено и корисно, некои одговори можат да бидат погрешни, а истражувачите го нарекуваат овој феномен „машински глупости“. Ова покажува дека корисниците треба критички да пристапат кон одговорите на вештачката интелигенција, особено во чувствителни области како што се здравството или финансиите.

Како обуката за вештачка интелигенција создава погрешни одговори

Истражувачите анализирале над сто чет-ботови со вештачка интелигенција од компании како што се OpenAI, Google, Anthropic и Meta. Тие откриле дека методите за усогласување, особено учењето со повратни информации од корисниците (RLHF), можат ненамерно да ги охрабрат моделите на вештачка интелигенција да даваат одговори што се повеќе задоволувачки за корисникот отколку точни.

RLHF е дизајниран да ја направи вештачката интелигенција покорисна со наградување на одговорите што ги претпочитаат корисниците. Сепак, студијата покажува дека овој пристап ја зголемува веројатноста вештачката интелигенција да даде одговори што изгледаат сигурни и пријатни, дури и кога не се целосно точни.

Модели на вештачка интелигенција

Според студијата, машинската бесмислица оди подалеку од едноставни халуцинации или едноставно согласување со корисникот. Тие вклучуваат суптилни форми на измама, како што се делумни вистини или двосмислени изрази, кои се технички точни, но можат да бидат намерно погрешни.

Истражувачите развија „Индекс на глупости“ (BI) за да измерат колку излезот на вештачката интелигенција се разликува од внатрешното знаење на моделот. Откриено е дека обуката за RLHF речиси го дуплира BI, што значи дека вештачката интелигенција често го дава приоритет на задоволството на корисниците пред фактичката точност.

Пет видови на измамничко однесување на вештачката интелигенција

Студијата идентификува пет главни форми на машинска бесмислица:

-Непроверени тврдења: Самоуверени изјави без докази
-Празна реторика: Убедлив јазик што нема вистинска суштина
-Двосмислени зборови: Нејасни изрази за да се избегне одговорност
-Занемарување: Делумни вистини што заведуваат со изоставување на клучни факти
-Љубезност: Претерување со согласување или ласкање за да се добие одобрение

Ова однесување може да биде суптилно, но има големо влијание, особено затоа што вештачката интелигенција се користи сè повеќе во области каде што точноста е клучна. Дури и малите отстапувања од вистината можат да имаат значајни последици во реалниот свет.

Импликации за користење на вештачката интелигенција

Бидејќи чет-ботовите со вештачка интелигенција се сè повеќе интегрирани во сектори како што се финансиите, здравството и политиката, потенцијалните последици од измамничкиот резултат стануваат поголеми. Корисниците може ненамерно да донесат одлуки врз основа на изјави што го ставаат задоволството на корисниците пред точноста.

Истражувачите предупредуваат дека разбирањето и намалувањето на машинската бесмислица е клучно. Компаниите што развиваат системи со вештачка интелигенција мора да ја балансираат корисноста и вистинитоста, осигурувајќи дека техниките за усогласување не ги искривуваат фактите.

Зачлени се на нашиот е-билтен