Главное Авторские колонки Вакансии Вопросы
55 0 В избр. Сохранено
Авторизуйтесь
Вход с паролем

Данные пользователей ИИ Claude пойдут на обучение системы

Anthropic объявила о значительных изменениях в политике конфиденциальности для пользователей Claude. Теперь все, кто использует Claude Free, Pro и Max (включая Claude Code), должны до 28 сентября выбрать: разрешить использовать свои чаты для обучения моделей или отказаться от этого.
Мнение автора может не совпадать с мнением редакции


Ранее переписка пользователей автоматически удалялась через 30 дней (или максимум два года при нарушении правил). Теперь, если пользователь не отключит передачу данных, его чаты и коды будут храниться до пяти лет и применяться для улучшения работы Claude.

Для бизнес-клиентов (Claude for Work, Education, Gov и API) это правило не действует — их данные не используются для обучения моделей.

Anthropic объясняет нововведение тем, что собранные данные помогут сделать модели «более безопасными и умными»: лучше выявлять опасный контент и совершенствовать навыки анализа и программирования.

Однако эксперты считают, что истинная причина в другом: компаниям вроде Anthropic, OpenAI и Google нужны огромные массивы реальных разговоров, чтобы их ИИ оставался конкурентоспособным.

0
В избр. Сохранено
Авторизуйтесь
Вход с паролем