⚠️ ИИ уже наносит вред — и учёные это фиксируют
Число инцидентов с участием ИИ растёт, а новые инструменты помогают их систематизировать.
Исследователи MIT разработали классификатор на основе LLM, который анализирует отчёты из AI Incident Database и сортирует инциденты по типу вреда и серьёзности. С 2022 года число инцидентов выросло в 8 раз, особенно в сфере мошенничества и дипфейков. Например, Grok генерировал до 6 700 нежелательных изображений в час, что привело к блокировке в Азии и расследованиям в UK.
В 2025 году наиболее резко выросло число инцидентов в интерфейсах «человек–ИИ», включая случаи зависимости и психоза. 1/3 инцидентов — с участием неизвестных разработчиков, что затрудняет привлечение к ответственности.
#ai_risks #incident_database #mit_research #deepfakes #ai_harms #cybersecurity