
Anthropic, одна из ведущих компаний в области генеративного ИИ, пошла по пути большей прозрачности, объявив об обновлении правил для пользователей сервиса Claude. С 28 сентября 2025 года компания введёт опциональный механизм: пользователи смогут добровольно разрешить использование своих чатов и кодинговых сессий для обучения моделей.
В отличие от некоторых конкурентов, Anthropic делает акцент на явном согласии и полном контроле над данными. Пользователь в любой момент может изменить настройки конфиденциальности, удалить историю переписки или аккаунт, исключив данные из будущего обучения.
При этом срок хранения информации для тех, кто согласился участвовать, составит пять лет — что значительно больше стандартного «короткого» периода у многих других сервисов.
Для индустрии это важный шаг: компании вынуждены искать баланс между необходимостью накопления больших массивов данных и растущим вниманием к вопросам приватности. Anthropic демонстрирует, что можно совмещать обучение моделей и уважение к правам пользователей.