Качественные клиентские коммуникации: ИИ без ИБ-рисков

Изображение: recraft
ИИ-ассистенты и чат-боты успешно анализируют качество коммуникаций с клиентом — переписку, звонки, полноту и скорость ответов менеджеров, их интонацию и прочие параметры общения. Как сервисным компаниям сохранить качество услуг и не допустить утечки персональных данных, с которыми работают нейросети — рассказывает Валерий Геленава, сооснователь цифрового логистического оператора versta.io.
Актуальность угрозы утечек
Проблема утечки персональных данных (ПДн) актуальна как никогда ранее. В 2025 году в открытый доступ попало более 767 млн таких записей российских пользователей. Это на 67,6 % больше, чем за предыдущий период.
На этом фоне законодательно ужесточается административная и уголовная ответственность за нарушения работы с личной информацией. И речь идет уже не только о штрафах, которые могут достигать 500 млн рублей, но и о лишении свободы на срок до 5 лет.
Такой подход вполне оправдан – каждая утечка дает мошенникам данные, которые могут привести к взлому аккаунтов, приостановке деятельности компаний, финансовым потерям, фишингу и другим проблемам. Помимо прочего, она влечет за собой серьезные репутационные риски.
Чтобы обезопасить себя и своих клиентов, крупные компании стремятся исключить трансграничную передачу персональных данных, то есть реализовывать обработку всей информации на территории России, а также обеспечить контроль точек, в которых она может оказаться доступна для посторонних.
Основные риски
Среди основных рисков утечки ПДн в бизнесе можно назвать человеческий фактор, использование зарубежных разработок и механизмы работы ИИ-агентов.
В первом случае, это может быть упоминание оператором какой-либо информации о заказчике в мессенджерах при обсуждении с коллегами лучшего пути решения задачи.
На фоне растущего количества мошеннических схем, количество людей, которые никак не реагируют на утечки своих ПДн, сократилось с 51% в 2023 году до 3% в 2025. При этом большинство пользователей относятся к этому риску, как к неизбежности. Отсюда возникает легкость, с которой люди (и чем они моложе, тем более свободно), пересылают в мессенджерах такие чувствительные данные, как копии собственного паспорта, или других документов, содержащих ПДн.
Важно: если для передачи данных используется, например, WhatsApp, то осуществляется трансграничная передача данных — первичная обработка сообщений происходит за границей.
Здесь очень важна политика компании: защиту персональных данных и оптимизацию процессов управления ими в современных условиях следует проводить на уровне корпоративной культуры и процессов.
Что касается особенностей функционирования ИИ-агентов, то для их корректной работы требуются промпты, то есть точно сформулированные команды или набор инструкций. Обычно их создают разработчики, которые взаимодействуют с ИИ-моделями, с одной стороны, и менеджерами, с другой.
В режиме co-pilot менеджер может коммуницировать с ИИ-агентом напрямую, например, когда нужно уточнить какую-то информацию. К сожалению, бывают ситуации, когда искусственный интеллект путает контекст и сообщает данные одного заказчика в диалоге с другим.
Чтобы избежать этих рисков, необходимо использовать комплексный подход, который перекроет пути для мошенников к персональным данным на всех потенциально опасных участках.
Через призму клиентских коммуникаций
Если в качестве примера реализации мер по защите и профилактике рисков утечки ПДн брать логистическую отрасль, то здесь одна из главных задач по контролю профильных рисков лежит в плоскости клиентских коммуникаций. Их анализ регулярно проводится для отслеживания уровня удовлетворенности заказчиков, а также для выявления проблем, которые остаются нерешенными в рамках существующих процессов.
Сегодня для этого используются ИИ-ассистенты, которые постоянно анализируют коммуникации и транслируют возникающие проблемы ответственным лицам. Они помогают классифицировать виды обращений, оценить качество коммуникаций, понять, получил ли клиент ответ на свой вопрос и в какие сроки, перезвонил ли оператор заказчику в оговоренное время.
Основная задача — убедиться, что обещания, данные клиенту, выполнены на 100% и таким образом, чтобы не допустить утечки персональной информации.
Между тем, не только скорость, но и качество реакции является одной из причин, по которым крупные игроки не переводят службу поддержки на чат-боты, полагая, что логистический партнер не должен отгораживаться от клиентов технологическим заслоном и заставлять его пробиваться к операторам.
Но еще более важный момент заключается в прямом соединении умных алгоритмов с процессами клиентского общения. Так создается серьезный риск утечки персональных данных, которые клиенты постоянно предоставляют во время коммуникации с логистическим оператором по возникшим вопросам.
Как защитить ПДн в ИИ-процессах?
Во-первых, использовать только системы российской разработки: GigaChat, Yandex GPT, различные нишевые модели на open-source (с размещением в российских дата-центрах). Они могут быть развернуты локально на серверах оператора, или у отечественных поставщиков. Основная задача – избежать трансграничной передачи персональных данных и их выхода за защищенный контур ИТ-системы.
Во-вторых, необходимо строго очертить возможности использования менеджером компании персональных данных. Конечно, он может их видеть, чтобы качественно выполнять свою работу и поддерживать конструктивный диалог с заказчиком, но для защиты от утечки данных на этапе переговоров можно воспользоваться классическими инструментами — политиками доступа, разграничением прав, ограничением на выгрузку.
Далее, следует использовать методы обезличивания персональных данных при их обработке во внешних системах, например — токенизации. Он позволяет обезличить персональные данные, заменив такие сведения на токены. Это можно сделать с помощью ИИ-агента, который работает внутри корпоративного ИТ-контура или с помощью готового ИТ-решения которые представлены на российском рынке. Общая логика работы таких решений следующая — перед передачей во внешнюю систему из передаваемой информации выделяются персональные данные, и они подменяются на токены. Сами персональные данные сохраняются в специальной базе данных. При получении ответа — токены заменяются обратно на данные.
Затем зашифрованную, «безопасную» информацию можно смело передавать внешним моделям, которые проводят детальный анализ и возвращают результат, в котором можно быстро произвести обратную операцию.
Проблема обработки персональных данных с помощью ИИ — сложная юридически и и техническая история, разбираться с которой нам предстоит в ближайшие годы. Но сочетание вышеперечисленных методов практически исключает риски, связанные с утечкой персональных данных. Любая информация, будь то номер телефона или имя клиента, прозвучавшие во время разговора, тщательно охраняются или удаляются на тех этапах работы, где они теоретически могут быть похищены.
Автор: Валерий Геленава, сооснователь цифрового логистического оператора versta.io.



