Прозрачность и контроль: Anthropic предлагает новый баланс между приватностью и развитием ИИ


Anthropic, одна из ведущих компаний в области генеративного ИИ, пошла по пути большей прозрачности, объявив об обновлении правил для пользователей сервиса Claude. С 28 сентября 2025 года компания введёт опциональный механизм: пользователи смогут добровольно разрешить использование своих чатов и кодинговых сессий для обучения моделей.

В отличие от некоторых конкурентов, Anthropic делает акцент на явном согласии и полном контроле над данными. Пользователь в любой момент может изменить настройки конфиденциальности, удалить историю переписки или аккаунт, исключив данные из будущего обучения.

При этом срок хранения информации для тех, кто согласился участвовать, составит пять лет — что значительно больше стандартного «короткого» периода у многих других сервисов.

Для индустрии это важный шаг: компании вынуждены искать баланс между необходимостью накопления больших массивов данных и растущим вниманием к вопросам приватности. Anthropic демонстрирует, что можно совмещать обучение моделей и уважение к правам пользователей.