Skip to main content

Дипфейк вне закона: Госдума рассмотрит вопрос правового урегулирования использования ИИ в подмене голоса или изображений

Использование дипфейков в преступлениях может стать отягчающим обстоятельством
Трамп
https://www.ixbt.com/news/2022/11/21/predstavlen-pervyj-v-mire-detektor-dipfejkov-v-realnom-vremeni-s-tochnostju-96.html

Использование дипфейков в преступлениях может стать отягчающим обстоятельством. Об этом заявил глава комитета Госдумы по информполитике Сергей Боярский на конференции «Цифровая индустрия промышленной России», передаёт РИА Новости.

Вопрос обрёл актуальность на фоне всплеска правонарушений, совершённых с помощью генерации голосов и изображений людей с посредством  нейросетей. Эксперты по ИИ полагают, что каждый второй россиянин к концу 2025 года может столкнуться с дипфейк-атакой.

Злоумышленники смогут в режиме реального времени имитировать разговор с «другом, просящим деньги» или же «коллегой, срочно требующим перевести средства». Зампред комитета Госдумы по физкультуре и спорту Сергей Бурлаков предупредил, что скоро появятся и звонки с фальшивыми голосами родственников.

Технологии уже достигли такого совершенства, что распознать их «на глазок» удаётся с трудом. Так, со своим электронным двойником «встретился» в интернете глава МИД РФ Сергей Лавров, высоко оценивший качество копии, сообщает официальный представитель МИД России Мария Захарова.

«Очень хорошо помню, как мне позвонил мой руководитель и сказал про какой-то ролик: «Это же не я». Я говорю: «Не вы». Он говорит: «Но вроде, как и я». Я говорю: «Вроде как, но не вы», – рассказала Захарова.

Проблемы использования дипфейков лежат не только в правовой, но и в нравственной плоскости, и здесь все гораздо сложнее. Ещё в 2024 году министр культуры Ольга Любимова говорила о необходимости дать оценку этическим аспектам генерации образов.

Речь, в частности, о создании и использовании дипфейков в кино, на телевидении и в интернете. Вопрос был вынесен на обсуждение из-за повального появления на экране образов уже ушедших из жизни людей.

«Тема использования компьютерных изображений умерших знаменитостей — непростая и требует отдельного обсуждения», – заявила Ольга Любимова.

Для западного шоу-бизнеса такой приём давно уже стал привычным. Просторы интернета и даже стадионов и концерт-холлов там вовсю «бороздят» голограммы Уитни Хьюстон, Элвиса Пресли и других икон сцены, наделённых, соответственно, и голосами матриц.

Однако принятые в России этические нормы расходятся с традициями заокеанского шоу-бизнеса. Очевидно, что проблема еще не заявила о себе в полном объеме, и обсуждение будет продолжаться, в том числе на законодательном уровне. У каждого свое восприятие: повлияет ли мнение Госдумы на отношение к дипфейкам в обществе – покажет время.

Дипфейк (англ. deepfake от deep learning «глубинное обучение» + fake «подделка») — методика синтеза изображения или голоса, основанная на искусственном интеллекте.

Поделиться
VK OK Telegram WhatsApp

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *