Виды уязвимостей в ии помощниках
Ранее я писал пост о том, как реализовал небольшой проект для минимизации рисков утечки конфиденциальных данных за счёт изоляции модели в Docker с использованием best practices для контейнеризации. Ознакомиться с этим постом можно по ссылке: ➥ https://setka.ru/posts/019cfb39-35e2-7613-942e-eedba58a10f
В этом же посте я хотел бы поверхностно разобрать, какие уязвимости вообще существуют в ИИ, помимо утечек информации.
В 2025 году OWASP сформировал список из 10 наиболее распространённых уязвимостей, связанных с реализацией моделей. Эти проблемы актуальны не только для новых решений, но и для уже существующих систем.
━━━━━━━━━━ OWASP Top 10 2025 для LLM/GenAI ━━━━━━━━━━
LLM01: Prompt Injection — инъекция в промпт • Это когда модель слишком доверяет внешнему тексту и начинает следовать не задаче пользователя, а скрытой инструкции из письма, сайта, документа или другого источника.
LLM02: Sensitive Information Disclosure — раскрытие чувствительной информации • Это когда модель или ИИ-система выдают секретные, личные или внутренние данные, которые не должны попадать в ответ пользователю.
LLM03: Supply Chain — риски цепочки поставки • Это когда проблема находится не в вашем коде, а в сторонней модели, библиотеке, плагине, датасете или другом внешнем компоненте, который вы подключили.
LLM04: Data and Model Poisoning — отравление данных и модели • Это когда в данные или модель заранее вносят вредные изменения, чтобы ИИ позже начал ошибаться, вести себя неправильно или выполнять опасные сценарии.
LLM05: Improper Output Handling — небезопасная обработка вывода модели • Это когда ответ модели принимают как безопасный и без проверки передают дальше в код, интерфейс, команду или систему, из-за чего ответ ИИ сам становится точкой атаки.
LLM06: Excessive Agency — избыточная агентность • Это когда модели дают слишком много возможностей и прав: читать файлы, выполнять команды, ходить во внешние сервисы или менять данные там, где она не должна иметь такой свободы.
LLM07: System Prompt Leakage — утечка системного промпта • Это когда становятся видны внутренние инструкции модели, её скрытые правила работы или служебная логика, на которой построено поведение системы.
LLM08: Vector and Embedding Weaknesses — слабости векторной базы и embeddings • Это когда система плохо работает с базой знаний и внешним контекстом, из-за чего в неё можно подмешать ложные данные, сбить поиск или повлиять на ответ модели через подставной контент.
LLM09: Misinformation — дезинформация • Это когда модель выдаёт ложную или искажённую информацию так, будто она верная, и пользователь может принять её за факт.
LLM10: Unbounded Consumption — неограниченное потребление ресурсов • Это когда ИИ-систему можно перегружать запросами, длинным контекстом или тяжёлыми задачами без нормальных ограничений, что приводит к лишним расходам, замедлению или отказу сервиса.
━━━━━━━━━━ Мой личный взгляд на ситуацию с безопасностью в ии ━━━━━━━━━━
Я считаю что это отдельная сфера безопасности для бизнеса который хочет создавать ии модели с 0 но как AppSec могу сказать что итоговая архитектура приложения довольно приметивна и кол векторов атак на ии агентов напрямую зависит от того где он будет находиться и какие задачи будет реализовывать.
В большинстве случаев для анализа документов достаточно простой правильной изоляции как на стороне компонента так и ролевой модели доступа к нему.
#AI #GenAI #LLM #AIAgents #CyberSecurity #AppSec #OWASP #OWASPTop10 #OWASPGenAI #PromptInjection #SecureAI
· 25.03
Отличная подборка! Особенно актуален LLM06 (Excessive Agency) — сейчас все бегут давать агентам доступ к файловой системе, API, базам данных. А потом удивляются, когда агент удаляет продовую таблицу по "галлюцинации". На практике самый рабочий подход — принцип минимальных привилегий + явный whitelist разрешённых действий. MCP-протокол в Claude Code, например, именно так и работает: каждый инструмент требует явного подтверждения.
ответить
коммент удалён
· 25.03
Лично я выдаю права ИИ-агентам у себя локально лишь на создание новых объектов для отчётов без возможности изменять существующие, тем самым устраняю возможность потерять исходники из-за галлюцинаций.
ответить
ответ удалён