рубрики

Загон для искусственного интеллекта: получится ли ограничить новую технологию
Фото: Pexels

Власти США озаботились регулированием искусственного интеллекта. В администрации президента Джо Байдена пообещали выделить на это $140 млн. И это в условиях преддефолта. Мы выясняли, стоит ли «закручивать гайки» новой бурно развивающейся технологии.

Ураган нейросетей

С тем, как искусственный интеллект (ИИ) ворвался в нашу жизнь, можно сравнить разве что появление интернета. Нейросети уже доказали, что могут с лёгкостью рисовать, снимать видео, создавать код, проектировать дома и многое другое. ИИ замахивается не только на базовые специальности, но и на сложную экспертную работу.

Финансовые управляющие хватаются за головы: ChatGPT собрал инвестиционный портфель лучше, чем топ-10 фондов Великобритании. Об этом сообщает Financial Times. За восемь недель портфель из 38 акций вырос на 4,9%, тогда как десять самых популярных фондов популярной платформы Interactive Investor в среднем потерпели убытки в 0,8%.

Глава Комитета начальников штабов ВС США Марк Милли и вовсе заявил, что скоро искусственный интеллект будет использоваться для ведения военных действий. По его словам, преимущество внедрения ИИ и квантовых вычислений – это возможность принятия решений быстрее противника.

Опасность искусственного интеллекта

Бурное развитие искусственного интеллекта пугает экспертов. Писатель и историк Юваль Ной Харари ранее заявил, что нейросеть ChatGPT может быть опаснее ядерного оружия. Объяснил он это тем, что ядерное оружие не может развиваться без участия человека, а искусственный интеллект на это способен.

Загон для искусственного интеллекта: получится ли ограничить новую технологию
Фото: Unsplash.com

Ветеран Google Джеффри Хинтон, который много лет развивал технологию, лежащую в основе чат-ботов вроде ChatGPT, дал довольно громкое интервью The New York Times, где выразил озабоченность, что ChatGPT и другие нейросети способны нанести серьёзный вред обществу. Эксперт, которого называют «крёстным отцом ИИ», выделил три главные угрозы:

  1. Распространение дезинформации
  2. Сокращение рабочих мест
  3. Угроза жизни человечества

Руководитель Управления по цифровым технологиям и искусственному интеллекту Минобороны США Крейг Мартелл заявил, что «напуган до смерти» чат-ботами. Причина – ChatGPT и иже с ним могут делать утверждения, не понимая контекста, и приводить вполне логичные аргументы, что вызовет у людей доверие даже к абсурдной информации от ИИ.

Сценаристы в Голливуде всерьёз обеспокоились своим будущим и вышли на забастовку. Главное требование протестующих – запрет на использование нейросетей и искусственного интеллекта при создании текстов. Из-за забастовки на паузу поставлены «Ночное шоу с Джимми Фэллоном», «Позднее шоу со Стивеном Колбером» и другие программы.

Вопрос регулирования

Искусственный интеллект настолько встревожил администрацию США, что там запланировали выделить на регулирование отрасли $140 млн. Любопытно, что уже к 1 июня в Соединённых Штатах может не остаться денег на выполнение социальных обязательств из-за разногласий в конгрессе по поводу потолка госдолга, но на регулирование ИИ средства наскрести обещают – ведь «угроза жизни человечества».

«Сегодня алгоритмы обрабатывают большие массивы данных. Это может быть, например, текстовая информация. И дальше из текстовой информации они по кусочку синтезируют некие новые тексты. Очень часто это дезинформация, которая получается на выходе. При этом компании за это никакой ответственности не несут. Человечество борется за то, чтобы информация была максимально точна. Регулирование здесь необходимо», – сказал «Абзацу» ведущий аналитик Mobile Research Group Эльдар Муртазин.

Ещё одна опасность нейросетей – дипфейки. Технологии дошли до того, что можно взять образ известного человека, например политика, и заставить его произносить нужные слова. При этом распознать, реальное видео перед человеком или сгенерированное искусственным интеллектом, часто бывает непросто. То же самое – с фотографиями и видеозаписями событий.

«Например, вы читаете какое-то новостное сообщение на тему «Завод, производящий химические реагенты, взорвался» – и тут же идёт фотография. Вы видите красочную картинку со взрывом, а картинка сформирована нейросетью и к реальности не имеет никакого отношения. Вы должны понимать, что это не реальное отображение событий. Если мы говорим про видео или фотографии, то маркировка необходима», – продолжает Эльдар Муртазин.

Загон для искусственного интеллекта: получится ли ограничить новую технологию
Фото: Pexels.com

Эксперт не считает, что искусственный интеллект девальвирует интеллектуальную собственность и лишит людей умственного труда работы. Нейросети, по его мнению, помогут нам быть более эффективными, как это когда-то было с интернетом. При этом всецело доверяться новой технологии не стоит, нужны границы.

«Если люди начнут безоговорочно верить нейросетям, это может быть опасно. Например, вы разговариваете с чатом GPT и говорите: хочу похудеть на 10 кг за неделю. Чат GPT вам выдаёт инструкцию, как это сделать. Скорее всего, вы станете инвалидом, если будете следовать этой инструкции. Поэтому нужны ограничения», – считает эксперт.

Хотим мы этого или нет, но искусственный интеллект – уже часть нашей жизни. Задача экспертного сообщества – сформировать общие правила игры.

telegram
Рекомендуем