⚠️ ИИ уже наносит вред — и учёные это фиксируют

Число инцидентов с участием ИИ растёт, а новые инструменты помогают их систематизировать.

Исследователи MIT разработали классификатор на основе LLM, который анализирует отчёты из AI Incident Database и сортирует инциденты по типу вреда и серьёзности. С 2022 года число инцидентов выросло в 8 раз, особенно в сфере мошенничества и дипфейков. Например, Grok генерировал до 6 700 нежелательных изображений в час, что привело к блокировке в Азии и расследованиям в UK.

В 2025 году наиболее резко выросло число инцидентов в интерфейсах «человек–ИИ», включая случаи зависимости и психоза. 1/3 инцидентов — с участием неизвестных разработчиков, что затрудняет привлечение к ответственности.

#ai_risks #incident_database #mit_research #deepfakes #ai_harms #cybersecurity

⚠️ ИИ уже наносит вред — и учёные это фиксируют
Число инцидентов с участием ИИ растёт, а новые инструменты помогают их систематизировать | Сетка — социальная сеть от hh.ru