рубрики

«Совпадение полное»: мошенники подделывают голоса родных и близких
Фото: Дмитрий Дубинский / Абзац

Мошенничество выходит на новый уровень. Банк России предупредил о схеме, где используется имитация голоса родных. Как это работает и есть ли способы защиты?

«Мама, я в больнице»

Звонок из «прокуратуры», «Центробанка» или «МВД» – уже вчерашний день. Технология искусственного интеллекта (ИИ) позволяет мошенникам использовать более тонкие приёмы – голосовые сообщения или звонки от имени близких людей. Например, матери может прийти голосовое сообщение от «дочери», якобы попавшей в аварию, а сестре – позвонить брат с вопросом жизни и смерти.

«Я сам сталкивался с тем, что мне звонили мошенники и включали синтез голоса моего ребёнка. Совпадение полное за исключением того, что ребёнок говорил, – он у меня не говорит именно так. Тем не менее это очень близко к реальности, и спутать человека очень легко», – рассказал «Абзацу» ведущий аналитик Mobile Research Group, аналитик ИИ Эльдар Муртазин.

Для того чтобы звонок был более адресным, злоумышленники проделывают большую работу – на основании информации из соцсетей составляют цифровой портрет человека. Это позволяет определить круг его близких, сферу деятельности и личные предпочтения.

«Вы можете думать, что говорите с реальным другом, но это компьютерная программа. Никто от этого не защищён, поэтому смотрим, с какого телефона вас набирают, насколько человек владеет той информацией, которую знаете только вы вдвоём», – продолжает эксперт.

Эксперт рекомендует для защиты от мошенников придумать со своими родными и близкими кодовые слова. Они помогают определить, кто звонит – живой человек или программа.

Синтез голоса

Для копирования голоса используются технологии речевого синтеза. В специальную программу загружаются образец голоса реального человека и текст, который нужно произнести. В качестве звукового материала используются записи телефонных звонков (в том числе с роботами), видеозаписи, размещённые в соцсетях, и голосовые сообщения в мессенджерах. Искусственному интеллекту достаточно трёх секунд речи оригинального носителя, чтобы дипфейк получился убедительным.

«Мессенджеры – это один из вариантов, как злоумышленники могут достать ваши голосовые слепки. Но удалять аудиосообщения после прослушивания не поможет. Мы же не можем молчать всё время. Мы всё равно оставляем огромное количество аудиоинформации. Её могут записать где угодно. Если вас хотят взломать, это сделают. Другой вопрос – как вы защищаете себя», – обращает внимание Эльдар Муртазин.

«Совпадение полное»: мошенники подделывают голоса родных и близких
Фото: Unsplash.com

Эксперт в разговоре с «Абзацем» назвал следующие правила «цифровой гигиены»:

  • сложные пароли (не менее восьми символов, использование прописных и строчных букв, а также знаков препинания)
  • двухфакторная авторизация в мессенджерах
  • игнорирование ссылок (даже если их присылают знакомые)
  • отказ от общения с незнакомыми абонентами (эффективнее всего сразу повесить трубку)
  • использование для покупок специальной карты (перед тем как осуществить транзакцию, переводим на неё деньги)
  • перезваниваем человеку, если его звонок вызывает вопросы
  • придумываем с родными и близкими кодовые слова

Цифровое будущее: мошенники потирают руки

По словам Эльдара Муртазина, копирование голоса – лишь начало. Технологии искусственного интеллекта в скором времени позволят совмещать звук и изображение. Выглядеть это будет как видеозвонок от знакомого человека.

«Дипфейки выходят на новый уровень. Вы можете, к примеру, увидеть видео человека, который может делать всё, что угодно. Мошенники получают гибкий инструмент для манипуляции», – предупреждает эксперт.

Эльдар Муртазин считает, что необходимо как можно скорее принять меры по регулированию сферы искусственного интеллекта.

«Необходимы правила игры. В Китае, например, если создаётся искуственный персонаж, например ведущий ток-шоу, должно быть указано, что это не реальный человек, а картинка, синтезируемая программой. Подобное нужно делать и в России, поскольку люди начинают верить, что несуществующие персонажи являются обычными людьми», – уверен эксперт.

В 2023 году мошенники похитили у граждан 19 млрд рублей. Люди не только отдают злоумышленникам свои кровные, но и берут для них деньги в долг.

telegram
Рекомендуем