Не словом, а кодом. Как организовать защиту LLM без потерь производительности?
Генеративный ИИ и большие языковые модели (LLM) — это уже не технология будущего, а рабочий инструмент, меняющий бизнес-процессы. LLM пишут код, анализируют уязвимости и обрабатывают терабайты данных, и чем больше отраслей, куда проникает технология, тем больше она интересна злоумышленникам.
На вебинаре обсуждается актуальное состояние законодательства в части защиты LLM и рассматриваются реальные угрозы, которые происходят уже сейчас:
• Prompt Injection и Jailbreak: как происходит эксфильтрация данных и обход защитных механизмов через специально сформированные промпты.
• Prompt Injection для отказа в обслуживании: как один запрос может исчерпать вычислительные ресурсы, вызвать деградацию сервиса и увеличить затраты на API.
• Небезопасная десериализация и атаки на MLOps-пайплайн: как уязвимости в инструментах загрузки моделей могут привести к выполнению произвольного кода.
• Состязательные возмущения (Adversarial Perturbations): методы незаметного изменения входных данных для получения неверного или вредоносного вывода от модели.
• Внедрение бэкдоров: как происходит заражение модели и модификация архитектуры для создания скрытого контроля над моделью.
Также рассматриваются реальные технологии защиты, которые помогут бизнесу быть устойчивее к атакам:
• Продвинутая валидация запросов и ответов.
• Интерпретируемость (Interpretability) и прозрачность LLM.
• Детекция аномалий и другие методы.
Необходимость защищать LLM уже стала реальностью.
Спикеры:
Светлана Газизова – руководитель направления построения процесса безопасной разработки.
Анастасия Истомина – специалист по защите моделей машинного обучения.
Александр Кузьмин – ведущий эксперт, группа внедрения практик безопасной разработки моделей машинного обучения.



