Абзац
Абзац
Фото © Анастасия Романова / Абзац

 

Технология дипфейков сегодня настолько развита, что сгенерированные видео- и аудиофайлы становится сложно отличить от реальных, заявил председатель комиссии Совета Федерации по информационной политике и взаимодействию со СМИ Алексей Пушков. По его мнению, это угрожает не только публичным персонам, но и простым гражданам.

«Первые дипфейки имели в основном шутливый характер. Например, видео, как арестовывают Дональда Трампа и он пытается убежать. <…> Но это все рассматривалось как видеоприколы. И казалось, что особого вреда от них не будет. Но со временем мы увидели, что видеофейки могут быть использованы для удара по репутации человека, для подрыва доверия к тому или иному политику. <…> При этом визуально отличить подлинность видеозаписи достаточно сложно», – сказал сенатор, отвечая на вопрос корреспондента «Абзаца» по итогам заседания, посвященного борьбе с кибермошенничеством.

От сгенерированных нейросетями материалов страдают также рядовые россияне, говорит Пушков. Он привел в пример случаи, когда аудиофейки использовались для вымогательства денег.

Людям звонили якобы родственники и утверждали, что попали в сложную ситуацию. И те верили, потому что «голос соответствовал тому, что они привыкли слышать», отмечает сенатор.

«Пока еще у нас нет материального закона, который описывает такую категорию, как аудио- и визуальный фейк. <…> Задача – как нам отделить безобидные фейки, носящие шутливый характер, от злонамеренных. Здесь большое поле для законодательной деятельности, на базе которой будут приниматься определенные меры», – добавил он.

Пушков напомнил, что соответствующее законодательство уже создается. Отдельные инициативы разрабатываются как в Государственной думе, так и в Совете Федерации. В частности, одна из них предусматривает запрет на аудио- и видеофейки.

«Мы сейчас пытаемся определить, какой из этих законопроектов может послужить основой для базового закона, который будет принят в этой области. Конечно, выявление [дипфейков] – задача очень сложная. Говорят, что все видеоматериалы должны маркироваться. Но маркировку тоже можно подделать. <...> На мой взгляд, нам важно принять соответствующий закон, а искать этих людей (мошенников – прим.) уже будет делом правоохранительных органов», – подытожил политик.

Осенью прошлого года в Госдуму внесли пакет законопроектов, направленных на борьбу с дипфейками. Одно из предложений – маркировать видео, созданные или обработанные с помощью ИИ.

Еще одна инициатива, авторами которой выступили Алексей Пушков и депутат Ярослав Нилов, предусматривает штрафы вплоть до полутора миллиона рублей за порочащие человека фейковые ролики.

Совфед IT Россия законопроект мошенничество искусственный интеллект Дипфейк