Малварь, которая сама себя переписывает с помощью LLM? Уже здесь
Привет, %username%! В отчёте Google описан новый класс малвари, которая во время исполнения ходит в LLM (Gemini) и просит её переписать свой код, чтобы лучше прятаться от детектов — по сути метаморфный скрипт на стероидах. Google называет это новой фазой злоупотребления ИИ: модели становятся частью kill chain, а не просто инструментом для разработки.
Если смотреть на это глазами SRE/Dev(Sec)Ops, получается неприятная картина: сигнатуры быстро устаревают, поведение может меняться на лету, а любая прод-интеграция с LLM превращается в потенциальную точку атаки. Google уже подкрутил фильтры и сами модели, чтобы они отказывались помогать подобным сценариям, но тренд понятен — AI-powered атаки будут только умнеть.
Как ты к этому относишься: это больше хайп или реальная новая категория угроз? Обсуждаешь ли с командой риски от LLM-интеграций в проде и логируете ли вы обращения к внешним ИИ-сервисам так же строго, как к любым критичным API?
#Security #DevOps #DevSecOps #SRE #AI #LLM #IncidentResponse