IT-эксперт перечислил способы защиты личных данных при использовании нейросетей
В эпоху развития нейросетей хакеры активно используют искусственный интеллект (ИИ) для кражи персональных данных. Чтобы не попасться на удочку мошенников, следует придерживаться базовых правил цифровой гигиены, предупредил в беседе с «Абзацем» IT-эксперт Алексей Ратников.
Специалист объяснил, что поисковики, индексирующие боты и нейросети могут использовать и распространять данные, когда-то опубликованные самим владельцем информации. Чаще всего в интернет попадают сведения, размещенные в соцсетях, чатах, подписках, комментариях и анкетах.
Поисковики и нейросети быстро систематизируют информацию из баз, а затем мошенники используют ее либо для обмана, либо для последующей продажи. Чтобы этого избежать, эксперт советует соблюдать цифровую гигиену при использовании ИИ.
«Применяйте двухфакторные проверки при регистрации в чатах с ИИ. Если есть возможность, используйте локальные, а не облачные модели. При вводе поискового запроса старайтесь избегать публикации личных данных. Запрещайте передачу истории чатов между сессиями и избегайте функции «поделиться» через мессенджеры. Проверяйте пользовательский ввод и избегайте копипастов для промптов – эти запросы могут содержать и накапливать вредоносную или фишинговую информацию. Опасную нейросеть можно вычислить по слишком длинным ответам и высокой частоте встречных вопросов. Если безопасность ИИ-чата вызывает опасения, работу с ним лучше сразу прекратить», – уточнил Ратников.
Ранее эксперт по информационной безопасности Андрей Слободчиков оценил идею фильтрации интернет-трафика с помощью нейросети. Он объяснил, что ИИ способен обработать сложные данные, но не станет универсальным решением в борьбе с VPN.