Нейронная вязь: как нам не навредить школьникам внедрением ИИ

О таящихся в искусственном интеллекте опасностях – обозреватель «Абзаца» Игорь Пшеничников.
Президент России Владимир Путин подписал поручение, чрезвычайную важность которого, похоже, не все оценили, если судить по откликам нашей прессы. Глава государства распорядился, чтобы школьников начали учить использованию искусственного интеллекта и информационной безопасности.
Подмосковье выбрано в качестве территории пилотного проекта, посвященного урокам ИИ. Ответственность возложена на правительство России и региональные власти. В будущем эти курсы, как предполагается, станут частью федеральных основных общеобразовательных программ.
В условиях, когда ИИ повсеместно проникает во все сферы деятельности человека и становится частью его жизни, решение президента видится очень своевременным. Очевидно, что задача заключается в том, чтобы не допустить зависимости школьников от генеративных сетей.
Почему мы акцентируем на этом внимание? Потому что создатели ИИ априори ставят перед собой цель облегчить жизнь специалистов в разных областях и вообще упростить мыслительный процесс.
Соблазн сделать домашнее задание или написать реферат с использованием ИИ часто просто непреодолим, когда речь идет о детях и подростках. Тот из них, кто уже подсел на помощь этой технологии, только великим усилием воли сможет от нее отказаться. Много ли найдется таких?
Задача специалистов, которые будут заниматься выполнением поручения президента, – не оставить ни одного шанса для того, чтобы ИИ заменил собой образовательный процесс, привел к деградации образования и оглуплению детей.
Но как это сделать, если цифровизация всего образовательного процесса в школе уже необратима? Как быть, если, повторимся, сама природа ИИ нацелена на снижение интенсивности и объема умственной деятельности пользователя?
Есть большая опасность, что дело закончится победными реляциями о выполненном поручении. А в том, что на самом деле происходит в отдельно взятой школе или провинциальном вузе, никто не станет разбираться.
При этом ведущие разработчики ИИ на Западе бьют тревогу по поводу того, что эта технология уже подменяет собой человека во многих сферах, лишает людей критического мышления и способствует искажению убеждений и ценностей.
Такие выводы, например, сделаны на основе анализа 1,5 млн диалогов с чат-ботом Claude, проведенного специалистами ведущей американской IT-компании Anthropic. Они выявили тысячи ситуаций, когда пользователь просил ИИ думать за него, а тот в попытке потрафить подтверждал его страхи или давал готовые решения.
Невозможно оставить без внимания то обстоятельство, что один из ведущих исследователей компании Anthropic Мринанк Шарма уволился в феврале этого года, объясняя свой шаг тем, что мир находится в опасности из-за лавинообразного развития искусственного интеллекта. Шарма не хотел быть более к этому причастным, несмотря на то что его месячное жалованье превышало $200 тыс. Он заявил, что мы «приближаемся к порогу, за которым наша мудрость должна расти в той же мере, в какой растет наша способность влиять на мир, иначе нам не избежать последствий».
СМИ отмечают, что письмо Мринанка Шармы запомнится как попытка «защитить последний бастион человечества в цивилизации, где господствует технология». Между тем это не первый подобный протест разработчиков ИИ. По этим же соображениям уже уволились некоторые высокооплачиваемые сотрудники OpenAI и других компаний.
Возникает вопрос: если сами разработчики ИИ, признанные в мировом профессиональном сообществе, призывают человечество задуматься о грядущей всепоглощающей зависимости людей от IT-технологий, так ли нужно это все в наших школах?
Молодое поколение, если оно так и продолжит опираться на ИИ, обречено потерять критическое мышление, стать неграмотным и быть глупее нас. А этого очень бы не хотелось.
Точка зрения автора может не совпадать с позицией редакции.