Claude массово удаляет аккаунты россиян вместе с данными и просто возвращает деньги

изображение: grok
Российские пользователи Claude столкнулись с массовыми блокировками аккаунтов. По данным Baza, нейросеть Anthropic удаляет профили вместе с данными, а владельцам оплаченных подписок возвращает деньги. Пострадали несколько сотен человек, среди них много ИТ-специалистов, предпринимателей и пользователей, которые месяцами хранили в Claude результаты анализа, рабочие материалы и переписки с моделью.
Главная проблема не сводится к потере доступа к сервису. Пользователи сообщают об удалении аккаунтов вместе с накопленными данными. Для применявших Claude как рабочий инструмент это означает потерю целого набора материалов:
- проекты с историей запросов и итераций
- черновики статей, документов и презентаций
- результаты аналитики и продуктовых исследований
- наработки по коду и архитектуре систем
- внутренние заметки по бизнес-задачам
Возврат денег за подписку закрывает финансовую часть, но не компенсирует потерю данных.
Интересно, что Claude возвращает деньги за подписки, но не возвращает данные, и многим пользователям эта компенсация не закрывает реальный ущерб от потери рабочих материалов.
По данным Baza, блокировки затронули в основном пользователей Claude из России. Сервис Anthropic официально недоступен в стране из-за санкционных ограничений, но многие обходили это разными способами. Подобный фактор может быть одной из причин усиления блокировок.
Независимый эксперт в сфере ИИ Дмитрий Антипов считает массовое удаление аккаунтов связанным с санкционными ограничениями и доступом российских пользователей к сервису из неподдерживаемого регионами. По словам Дмитрия Антипова, часть пользователей также могла не пройти верификационные проверки. Дмитрий Антипов не исключает связи проверок с внутренней оптимизацией инфраструктуры Anthropic.
Эксперт по внедрению ИИ Роман Адаменко, опрошенный Baza, предлагает ещё одно возможное объяснение. По мнению Романа Адаменко, Anthropic могла расценить частую смену IP-адресов и нестабильное соединение из-за VPN как нарушение правил сервиса. Регулярный «переезд» пользователя между странами в сетевом смысле выглядит подозрительно для систем платформы.
Сами пользователи считают ситуацию болезненной из-за резкости блокировок. Возможные сценарии для пострадавших аккаунтов выглядят так:
- мягкая блокировка с сохранением данных
- ограничение новых запросов с возможностью выгрузки
- пауза с последующей разблокировкой
- предупреждение перед закрытием доступа
- полное удаление аккаунта без возврата материалов
Реальный сценарий чаще всего соответствует последнему пункту.
К моменту публикации Anthropic публично не комментировала происходящее. По данным VC, компания и раньше блокировала профили россиян, а также жителей других стран, где сервис недоступен. В 2026 году давление, по сообщениям пользователей, стало заметно сильнее. Возврат денег за подписки говорит не о случайной ошибке алгоритма, а о сознательном закрытии доступа для определённой группы аккаунтов.
Запрет исходит не от российских властей, а со стороны самой Anthropic. Claude недоступен в России по решению компании и из-за внешних ограничений. Пользователи через обходные инструменты остаются в зоне постоянного риска. Аккаунт может быть заблокирован без долгого предупреждения при признаках обхода региональных правил.
Параллельно доступ к зарубежным ИИ-моделям начинают предлагать российские операторы связи. В частности, «МегаФон» заявлял о возможности доступа к Claude и другим зарубежным моделям. Для рынка это становится отдельным направлением с доступом через посредника или агрегатора. Здесь остаются открытые вопросы по нескольким направлениям:
- сохранность загруженных пользователем данных
- условия использования сервиса через посредника
- технические ограничения моделей у агрегатора
- юридическая ответственность сторон цепочки
- стабильность доступа при изменении правил
Случай с Claude показывает необходимость иначе относиться к хранению рабочих данных. Нейросеть может быть удобным инструментом, но не должна быть единственным архивом важных материалов. Особенно при работе через VPN и обходные способы оплаты.
Интересно, что блокировки исходят не от российских регуляторов, а от самой Anthropic, и пострадавшим некуда жаловаться через привычные каналы.
Ранее в Госдуме начали обсуждать ограничения ИИ из-за риска снижения самостоятельного мышления у людей. Первый заместитель председателя комитета Госдумы по информационной политике Антон Горелкин поднял тему на форуме «ИИ режим доверия». Антон Горелкин сослался на исследования с выводами об ослаблении логического и критического мышления при регулярной работе с нейросетями.
На примере Claude видна другая сторона зависимости от ИИ. Риск кроется не только в чрезмерной опоре на модель при мышлении и работе. Сама модель, аккаунт и данные находятся под контролем зарубежной платформы. При закрытии доступа человек теряет не просто инструмент, а часть рабочей среды.
Для бизнеса история значима. При неофициальном использовании сотрудниками зарубежных ИИ-сервисов через личные аккаунты, VPN и обходные схемы компания не знает, какие данные туда загружаются. При блокировке аккаунта организация теряет материалы, а при утечке или споре не может нормально управлять последствиями.
Эксперты редакции CISOCLUB отмечают, что массовые блокировки Claude показывают превращение ИИ-инструментов в полноценную часть рабочей инфраструктуры с сохранением их уязвимости к санкциям, правилам платформ и региональным ограничениям. По мнению редакции, российским компаниям пора выбирать модель не только по качеству ответов, но и по пониманию мест хранения данных, контроля доступа, выгрузки истории и последствий внезапной блокировки.



