Разговорот со АИ често не е приватен „еден-на-еден“ по дифолт. Минатата недела Anthropic објави дека ќе почне да ги користи корисничките разговори и сесии со код за дообука на Claude – освен ако корисниците експлицитно не се откажат (opt-out). Новата политика важи за сите индивидуални планови (Free, Pro, Max и Claude Code), со задржување на податоците до пет години за оние што ќе прифатат; деловни/владини/образовни и API-клиенти не се опфатени. Од 28 септември 2025, корисниците ќе видат прозорец со големо „Accept“ и потешко видлива опција за opt-out. Старите разговори не се вклучени, освен ако повторно не ги отворите.
Anthropic не е изолиран случај. OpenAI овозможува исклучување на тренингот во „Data Controls“ и нуди „Temporary Chats“ (не влегуваат во дообука и се бришат по 30 дена), но по дифолт корисничките разговори може да помогнат во подобрување на моделите. ChatGPT Enterprise/Team и API не се користат за тренинг по дифолт.
И Google Gemini ја развива персонализацијата преку читање претходни разговори; корисниците можат да го исклучат тоа, но „data-for-training“ е вклучен по дифолт, со нови „Personal Context“ поставки што автоматски се активираа средина август 2025, според индустриски извештаи и страницата за приватност.
Најголемиот европски правен фронт е Meta. По паузата во 2024 под надзор на ирскиот регулатор (DPC), Meta во мај 2025 најави дека ќе почне да користи јавно објавени содржини од возрасни корисници (објави/коментари и интеракции со Meta AI) за дообука – со можност за приговор (opt-out) преку формулар. Германскиот суд во Келн одби барање за забрана, дозволувајќи ѝ на Meta да продолжи; истовремено, групата NOYB се закани со колективна тужба и бара „opt-in“ наместо „opt-out“.
Зошто ова е чувствително прашање за ЕУ?
Под GDPR, секоја обработка на лични податоци мора да има правна основа. Многу АИ-компании тврдат „легитимен интерес“ за дообука, но европските регулатори бараат строги тестови: дали има помалку инвазивна алтернатива, дали има транспарентност и реално право на приговор што ефективно се почитува. Европскиот одбор за заштита на податоци (EDPB) во крајот на 2024 даде мислење: легитимниот интерес може да се примени, но само ако компаниите докажат нужност, пропорционалност и заштити; спротивно – ризикуваат прекршување и „труење“ на моделот со неправилно обработени податоци.
Паралелно, дебатата не е само правна туку и етичка. Луѓе често споделуваат интимни и здравствени детали во чатови. Дури и извршниот директор на OpenAI, Сем Олтман, предупреди дека разговорите со чатбот не се заштитени со лекарско-пациентска тајна – компаниите би можеле да бидат правно обврзани да сочуваат/предадат податоци во одредени постапки.