7 июля в ЕС утвердили AI Act для разработки LLM — первый настолько детализированный и строгий закон об искусственном интеллекте.
Теперь все AI-системы делят по уровням риска: от минимального (например, рекомендательные алгоритмы) до недопустимого (социальный скоринг, манипуляция поведением, массовое биометрическое наблюдение — сразу под запрет).
Для крупных языковых моделей (LLM, вроде GPT, Gemini, Claude) и general-purpose AI теперь отдельные требования ⤵️ ● Любой AI-продукт в ЕС теперь обязан быть прозрачным: нужна документация, объяснения решений и отслеживаемость действий системы. ● Для truly large models (такие LLM, как: GPT, Gemini, Claude) — обязательная оценка системных рисков, аудит и отчётность о сбоях и инцидентах безопасности
Что это значит для рынка? ● Если у продукта не имеется обоснования решений, либо нарушены этические и юридические требования, надзорные органы могут провести проверку и наложить штраф — до €35 млн или 7% мирового оборота ● Для пользователей это означает больше прозрачности: всегда будет понятно, где работает AI, а где — человек, и можно будет запросить объяснение работы системы
Лично мне кажется, Европа снова задаёт стандарт регулирования, как это было с GDPR. Выходит, что для стартапов и небольших команд порог входа в AI-продукты в ЕС теперь заметно вырос — осталось понять, как это повлияет на существующие продукты.
еще контент автора
еще контент автора
войдите, чтобы увидеть
и подписаться на интересных профи