РЕГУЛИРОВАНИЕ AI В РОССИИ
Дипфейк — это технология, использующая искусственный интеллект для создания реалистичных изображений и видео, позволяющая заменять лица и синтезировать голоса, что делает контент практически неотличимым от оригинала.
В Госдуму внесен законопроект об уголовной ответственности за клевету и мошенничество с использованиями голоса, изображения и биометрии гражданина.
Инициатива прогрессивная. И назревшая, с учетом огромного количества российских генеративных моделей и уровня развития технологий в стране.
Сейчас федеральное регулирование дипфейков есть только в Китае, Индии, трех штатах США - Виргинии, Техасе, Калифорнии. В отдельных странах - Японии, Бразилии, ОАЭ - уже были прецедентные судебные дела, которые подсветили необходимость четкого регулирования фрода с использованием ИИ.
💬На «человеческом» уровне - новый закон усилит ответственность в области банковского мошенничества, а также генерации фейковых видео и фото, влияющих на репутацию. Селебрити и обычные люди смогут спать спокойно, зная, что даже если неприличный фейковый ролик с их участием и разлетится по сети, то наказать нарушителя можно будет строго.
🌍 На «мировом» уровне - закон позволит преследовать дипфейки политиков с высказываниями, которые могут поменять ход выборов или вообще привести к военным конфликтам. Например, ещё в 2020 г. в сети появились фейковые ролики, в которых Ким Чен Ын и Путин красноречиво высказываются о выборах США и падении демократии, а в 2018 г. Барак Обама якобы оскорбил ТрампаКак видите, необходимость регулирования появляется там, где технологии развиты настолько, что их массово применяют во фроде.
Очевидно, что мы не являемся свидетелями большинства происходящих в мире событий, поэтому всю информацию получаем от третьих лиц, чаще всего заинтересованных и ангажированных.
С психологической точки зрения, даже если мы знаем, что видео или фото — #фейки, они всё равно оставляют след в нашем сознании.
Например, я все еще помню прошлогодний судебный кейс с рекламой Киану Ривз (точнее его виртуальной копией).
На видео человек, похожий на актера Киану Ривза, покидает дом, но несколько раз возвращается, чтобы проверить, не оставил ли он включенным утюг. Он даже фотографирует утюг и в конце концов уходит из квартиры с ним в руках.
Создатель видео был признан нарушителем и заплатил компенсацию 500.000 ₽ за 32-секундный ролик