Абзац
Абзац
Фото © Freepik

Искусственный интеллект в 2026 году способен кардинально изменить характер киберпреступности, упростив и ускорив атаки. Об этом сообщили эксперты в сфере информационной безопасности в разговоре с «Известиями».

По их словам, нейросети уже активно используются злоумышленниками для создания фишинговых писем, вредоносного кода и поддельных сайтов. ИИ позволяет автоматизировать этапы атак и значительно снижает порог входа в киберпреступность – теперь для взломов не всегда нужны глубокие технические знания.

Особую опасность, как отмечают специалисты, будут представлять дипфейки. Реалистичные подделки голоса и видео смогут использоваться для обхода биометрической защиты, доступа к банковским счетам и корпоративным системам. Также нейросети смогут анализировать большие массивы открытых данных и составлять подробные психологические портреты потенциальных жертв.

Эксперты предупреждают, что в 2026 году атаки могут выйти на «промышленный» уровень: один оператор сможет управлять тысячами зараженных устройств одновременно. Под угрозой окажутся не только компьютеры и смартфоны, но и умные устройства, системы видеонаблюдения и элементы критической инфраструктуры.

При этом специалисты подчеркивают, что ИИ используется не только преступниками, но и средствами защиты. Для противодействия новым угрозам компаниям рекомендуют активнее внедрять ИИ-решения в кибербезопасности и повышать цифровую грамотность сотрудников и пользователей.

Главным риском остается человеческий фактор: злоумышленники по-прежнему делают ставку на эмоции, спешку и доверчивость, а нейросети лишь делают такие атаки быстрее и масштабнее.Ранее Президент РФ Владимир Путин рассказал, как спастись от телефонных мошенников: он призвал россиян сразу класть трубку, если звонящие им начинают говорить о деньгах или имуществе. 

мошенники искусственный интеллект