7 июля в ЕС утвердили AI Act для разработки LLM — первый настолько детализированный и строгий закон об искусственном интеллекте.

Теперь все AI-системы делят по уровням риска: от минимального (например, рекомендательные алгоритмы) до недопустимого (социальный скоринг, манипуляция поведением, массовое биометрическое наблюдение — сразу под запрет).

Для крупных языковых моделей (LLM, вроде GPT, Gemini, Claude) и general-purpose AI теперь отдельные требования ⤵️ ● Любой AI-продукт в ЕС теперь обязан быть прозрачным: нужна документация, объяснения решений и отслеживаемость действий системы. ● Для truly large models (такие LLM, как: GPT, Gemini, Claude) — обязательная оценка системных рисков, аудит и отчётность о сбоях и инцидентах безопасности

Что это значит для рынка? ● Если у продукта не имеется обоснования решений, либо нарушены этические и юридические требования, надзорные органы могут провести проверку и наложить штраф — до €35 млн или 7% мирового оборота ● Для пользователей это означает больше прозрачности: всегда будет понятно, где работает AI, а где — человек, и можно будет запросить объяснение работы системы

Лично мне кажется, Европа снова задаёт стандарт регулирования, как это было с GDPR. Выходит, что для стартапов и небольших команд порог входа в AI-продукты в ЕС теперь заметно вырос — осталось понять, как это повлияет на существующие продукты.

7 июля в ЕС утвердили AI Act для разработки LLM — первый настолько детализированный и строгий закон об искусственном интеллекте | Сетка — новая социальная сеть от hh.ru
repost

11

input message

напишите коммент

еще контент автора

еще контент автора

войдите, чтобы увидеть

и подписаться на интересных профи

в приложении больше возможностей

пока в веб-версии есть не всё — мы вовсю работаем над ней

сетка — cоциальная сеть для нетворкинга от hh.ru

пересекайтесь с теми, кто повлияет на ваш профессиональный путь