ИИ находит уязвимости там, где обычные сканеры годами «вылизывали» код. И это меняет правила игры.
Один из крупнейших специалистов в кибербезопасности, Алексей Лукацкий, делится наблюдением: Anthropic и OpenAI признали, что их новые модели (Claude Opus 4.6 и GPT-5.3-Codex) перешли некую грань.
Они больше не просто генерируют текст. Они читают историю коммитов, находят слепые зоны в коде и сами пишут эксплойты. Anthropic уже нашла 500+ критических багов в проектах, которые годами проверяли стандартными средствами, но ничего не могли найти.
Главный вывод не в цифрах, а в смене парадигмы: 1. Скорость. 90-дневное окно на исправление уязвимостей может исчезнуть. Если ИИ находит баг за час, у команд просто нет традиционного запаса времени. 2. Испуг создателей. И Anthropic, и OpenAI вводят «Lockdown Mode» и режимы верификации личности. Они честно признаются: «Мы не знаем, пересекли ли мы черту, но будем действовать так, будто пересекли». 3. Главный вопрос. Обычных пользователей отключают от «кибер-функций». Но кто получит «лицензию на отстрел»? Кому дадут полную мощь этих моделей?
Раньше нас защищали от ИИ аргументом «модель еще слабая». Теперь нас защищают от ИИ... сами создатели ИИ, потому что модель стала слишком сильной.
#infosec #AI #кибербезопасность #уязвимости #тенденции
В этом посте были ссылки, но мы их удалили по правилам Сетки