Данные пользователей ИИ Claude пойдут на обучение системы
Ранее переписка пользователей автоматически удалялась через 30 дней (или максимум два года при нарушении правил). Теперь, если пользователь не отключит передачу данных, его чаты и коды будут храниться до пяти лет и применяться для улучшения работы Claude.
Для бизнес-клиентов (Claude for Work, Education, Gov и API) это правило не действует — их данные не используются для обучения моделей.
Anthropic объясняет нововведение тем, что собранные данные помогут сделать модели «более безопасными и умными»: лучше выявлять опасный контент и совершенствовать навыки анализа и программирования.
Однако эксперты считают, что истинная причина в другом: компаниям вроде Anthropic, OpenAI и Google нужны огромные массивы реальных разговоров, чтобы их ИИ оставался конкурентоспособным.