«Это реально или ИИ?» Скоро у этого вопроса будет ответ

Читаем шокирующую новость, видим трогательный пост или сверхреалистичное видео. Или даже «мама» на входящем звонке. И в голове тут же щёлкает: «Это реально? Это правда? Это на самом деле?»

В 2026 году в большинстве юрисдикций вступят в силу законы, делающие маркировку ИИ-контента обязательной.

Новая глобальная норма: любой контент (текст, изображение, аудио, видео etc.), созданный или значительно измененный ИИ, должен иметь:

1. Яркую видимую метку для людей. 2. Скрытый цифровой след в метаданных для алгоритмов.

Правило простое: пользователь должен с первого взгляда понять, что имеет дело с ИИ. Метки должны оставаться при любом действии — скачивании, копировании или экспорте.

Пока законодатели согласовывают правила, гиганты вроде Midjourney и OpenAI в своих пользовательских соглашениях уже заранее снимают с себя ответственность, перекладывая ее на пользователя: «Вы обещаете, что не нарушите ничьи права и будете маркировать творения». Обещания скоро станет законом, и за его нарушение последует штраф.

🌐 Карта штрафов для ИИ-контента:

  • Россия: в стадии обсуждения. В проекте штрафы для физлиц — до 50 тыс. руб., для компаний — до 500 тыс. руб.

  • Казахстан: с 18 января 2026 года штрафы в размере 15-30 месячного расчётного показателя (примерно до 20 тыс. росс. руб.) для физлиц и 30-100 месячного расчётного показателя (примерно до 66 тыс. росс. руб.) для юрлиц.

  • Испания: с 02 августа 2026 года штрафы для компаний могут достигать 7% от глобального оборота или 35 млн евро.

  • Вьетнам: в стадии обсуждения, для компаний до 2% от локального оборотаили 2 млрд донгов (примерно до 6 млн росс. руб.).

  • США: маркировка контента осуществляется на добровольной основе корпорациями, пока жестких федеральных законов нет.

  • Китай: с 01 сентября 2025 года, но детали и размеры санкций остаются за кадром.

Однако всегда есть «мелкий шрифт».

Оказывается, новые законы - не просто о тотальной маркировке. Они о разделении зон ответственности. Правила ЕС, к примеру, прямо говорят: если человек проверил и одобрил контент от ИИ, метка не нужна.

А вы сразу можете отличить сгенерированный контент?

Вот именно проблема в том, что с каждым днём это становится всё сложнее.

Как по-вашему, это вообще возможно — остановить фейки с помощью меток? 👇

#ИИ #регуляция #штрафы #ЕС #технологии #фейки #AI #безопасность #новости

«Это реально или ИИ?» Скоро у этого вопроса будет ответ | Сетка — социальная сеть от hh.ru