Claude массово удаляет аккаунты россиян вместе с данными и просто возвращает деньги

Claude массово удаляет аккаунты россиян вместе с данными и просто возвращает деньги

изображение: grok

Российские пользователи Claude столкнулись с массовыми блокировками аккаунтов. По данным Baza, нейросеть Anthropic удаляет профили вместе с данными, а владельцам оплаченных подписок возвращает деньги. Пострадали несколько сотен человек, среди них много ИТ-специалистов, предпринимателей и пользователей, которые месяцами хранили в Claude результаты анализа, рабочие материалы и переписки с моделью.

Главная проблема не сводится к потере доступа к сервису. Пользователи сообщают об удалении аккаунтов вместе с накопленными данными. Для применявших Claude как рабочий инструмент это означает потерю целого набора материалов:

  • проекты с историей запросов и итераций
  • черновики статей, документов и презентаций
  • результаты аналитики и продуктовых исследований
  • наработки по коду и архитектуре систем
  • внутренние заметки по бизнес-задачам

Возврат денег за подписку закрывает финансовую часть, но не компенсирует потерю данных.

Интересно, что Claude возвращает деньги за подписки, но не возвращает данные, и многим пользователям эта компенсация не закрывает реальный ущерб от потери рабочих материалов.

По данным Baza, блокировки затронули в основном пользователей Claude из России. Сервис Anthropic официально недоступен в стране из-за санкционных ограничений, но многие обходили это разными способами. Подобный фактор может быть одной из причин усиления блокировок.

Независимый эксперт в сфере ИИ Дмитрий Антипов считает массовое удаление аккаунтов связанным с санкционными ограничениями и доступом российских пользователей к сервису из неподдерживаемого регионами. По словам Дмитрия Антипова, часть пользователей также могла не пройти верификационные проверки. Дмитрий Антипов не исключает связи проверок с внутренней оптимизацией инфраструктуры Anthropic.

Эксперт по внедрению ИИ Роман Адаменко, опрошенный Baza, предлагает ещё одно возможное объяснение. По мнению Романа Адаменко, Anthropic могла расценить частую смену IP-адресов и нестабильное соединение из-за VPN как нарушение правил сервиса. Регулярный «переезд» пользователя между странами в сетевом смысле выглядит подозрительно для систем платформы.

Сами пользователи считают ситуацию болезненной из-за резкости блокировок. Возможные сценарии для пострадавших аккаунтов выглядят так:

  • мягкая блокировка с сохранением данных
  • ограничение новых запросов с возможностью выгрузки
  • пауза с последующей разблокировкой
  • предупреждение перед закрытием доступа
  • полное удаление аккаунта без возврата материалов

Реальный сценарий чаще всего соответствует последнему пункту.

К моменту публикации Anthropic публично не комментировала происходящее. По данным VC, компания и раньше блокировала профили россиян, а также жителей других стран, где сервис недоступен. В 2026 году давление, по сообщениям пользователей, стало заметно сильнее. Возврат денег за подписки говорит не о случайной ошибке алгоритма, а о сознательном закрытии доступа для определённой группы аккаунтов.

Запрет исходит не от российских властей, а со стороны самой Anthropic. Claude недоступен в России по решению компании и из-за внешних ограничений. Пользователи через обходные инструменты остаются в зоне постоянного риска. Аккаунт может быть заблокирован без долгого предупреждения при признаках обхода региональных правил.

Параллельно доступ к зарубежным ИИ-моделям начинают предлагать российские операторы связи. В частности, «МегаФон» заявлял о возможности доступа к Claude и другим зарубежным моделям. Для рынка это становится отдельным направлением с доступом через посредника или агрегатора. Здесь остаются открытые вопросы по нескольким направлениям:

  • сохранность загруженных пользователем данных
  • условия использования сервиса через посредника
  • технические ограничения моделей у агрегатора
  • юридическая ответственность сторон цепочки
  • стабильность доступа при изменении правил

Случай с Claude показывает необходимость иначе относиться к хранению рабочих данных. Нейросеть может быть удобным инструментом, но не должна быть единственным архивом важных материалов. Особенно при работе через VPN и обходные способы оплаты.

Интересно, что блокировки исходят не от российских регуляторов, а от самой Anthropic, и пострадавшим некуда жаловаться через привычные каналы.

Ранее в Госдуме начали обсуждать ограничения ИИ из-за риска снижения самостоятельного мышления у людей. Первый заместитель председателя комитета Госдумы по информационной политике Антон Горелкин поднял тему на форуме «ИИ режим доверия». Антон Горелкин сослался на исследования с выводами об ослаблении логического и критического мышления при регулярной работе с нейросетями.

На примере Claude видна другая сторона зависимости от ИИ. Риск кроется не только в чрезмерной опоре на модель при мышлении и работе. Сама модель, аккаунт и данные находятся под контролем зарубежной платформы. При закрытии доступа человек теряет не просто инструмент, а часть рабочей среды.

Для бизнеса история значима. При неофициальном использовании сотрудниками зарубежных ИИ-сервисов через личные аккаунты, VPN и обходные схемы компания не знает, какие данные туда загружаются. При блокировке аккаунта организация теряет материалы, а при утечке или споре не может нормально управлять последствиями.

Эксперты редакции CISOCLUB отмечают, что массовые блокировки Claude показывают превращение ИИ-инструментов в полноценную часть рабочей инфраструктуры с сохранением их уязвимости к санкциям, правилам платформ и региональным ограничениям. По мнению редакции, российским компаниям пора выбирать модель не только по качеству ответов, но и по пониманию мест хранения данных, контроля доступа, выгрузки истории и последствий внезапной блокировки.

Артем
Автор: Артем
Представитель редакции CISOCLUB. Пишу новости, дайджесты, добавляю мероприятия и отчеты.
Комментарии: