Вице-премьер Российской Федерации Дмитрий Григоренко поручил Министерству цифрового развития до 13 марта представить комплексные рекомендации по регулированию искусственного интеллекта (ИИ). Это решение было принято по итогам межведомственного совещания, состоявшегося в декабре с участием представителей ключевых министерств, спецслужб, администрации президента и ведущих ИТ-компаний. Министерство цифрового развития собирает предложения до 20 января, а затем начнет формирование документа, который обозначит направление национальной политики в области ИИ.
Как будет организовано регулирование этой технологии и какие вызовы она может создать для граждан России, «МК» узнал у независимого эксперта в области информационной безопасности Антона Редозубова.
— Как государство собирается контролировать развитие ИИ-технологий, чтобы они приносили пользу обществу, а не углубляли цифровое неравенство или ставили под угрозу приватность граждан?
— В августе прошлого года Министерство цифрового развития России разработало концепцию регулирования искусственного интеллекта до 2030 года — стратегический документ, который определяет приоритеты внедрения ИИ в различных секторах экономики и другие аспекты использования этой технологии. Совет по правам человека при президенте РФ (СПЧ) в свою очередь подготовил к ней свои замечания на 22 страницах. Член СПЧ, известный IT-предприниматель Игорь Ашманов подчеркивает необходимость введения запретительного, а не стимулирующего механизма. Однако легко запрещать, но это неэффективно, тем более в нынешних условиях, когда у нас есть другие игроки на мировом рынке, придерживающиеся другого подхода.
19 ноября 2025 года президент России Владимир Путин поручил правительству и главам регионов разработать национальный план внедрения ИИ. Он акцентировал внимание на важности развития отечественных моделей и обеспечения стабильности цифровой инфраструктуры для гарантии суверенитета данных.
Вектор, заданный поручением президента о национальном плане внедрения ИИ, — это стимуляция суверенного развития при одновременном формировании «правил дорожного движения». Главный вызов — не задушить процесс чрезмерным регулированием, но и не допустить цифрового неравенства и нарушения прав граждан из-за «чёрных ящиков» алгоритмов.
— Какие основные риски в сфере развития ИИ могут возникнуть для россиян уже в 2026 году?
— Я могу выделить три ключевых вызова. Первый — несоответствие скорости между технологическим прогрессом и регуляторной или правовой базой. Главные недостатки я вижу в отсутствии риск-ориентированного подхода в этой области. Слишком полярные позиции поддерживают различные силы на этом рынке: от «запретить всё» до «пусть цветут сто цветов». Мне, как специалисту по информационной безопасности, хотелось бы видеть трезвое и осознанное обращение с рисками. Второй — когнитивный.
— Что это означает?
— Это риск деградации критического мышления при абсолютном доверии к ИИ. На мой взгляд, серьезной угрозой, которая может проявиться через эту технологию, является человеческая лень. Это похоже на ситуацию с автомобилями: существует мнение, что их массовое использование стало причиной проблем с избыточным весом у граждан США. Людям проще и легче переложить свои усилия на помощника, а современные технологии предоставили каждому человеку такого помощника — он буквально в кармане. Впрочем, 20 лет назад о таких же вещах говорили в отношении самих телефонов, а еще раньше — о мультфильмах и компьютерных играх.
— Каков же третий вызов ИИ в 2026 году?
— Это киберугрозы нового уровня, когда ИИ станет катализатором масштабных и умных атак.
— Это серьезно. Какой главный вопрос, в таком случае, должно обсудить государство и простые россияне в связи с ожидаемым бурным развитием ИИ-решений?
— Как не стать пассивными пользователями этой технологии, а оставаться её осознанными хозяевами — вот что нужно понять. Для меня ИИ — это сложный инструмент, которым нужно уметь пользоваться. Я активно использую различные ИИ-технологии в своей повседневной работе, но никогда не позволяю, чтобы ИИ «думал за меня». Он помогает мне проводить первичный аудит безопасности разных систем, триаж выявленных уязвимостей и инцидентов, формулировать тексты, распознавать аудиозаписи и многое другое, что значительно облегчает мне работу, ускоряя и упрощая рутинные операции.
При этом я всегда проверяю, какие результаты предоставил мне этот ИИ, в отличие от того, как уже выяснилось, делают крупные консалтинговые компании. Напомню, что в октябре общественностью был поднят скандал с консалтинговым гигантом Deloitte Australia, который был вынужден вернуть $440 тыс. правительству страны из-за отчета, созданного с помощью GPT-4o, который оказался наполнен ошибками: там содержались три несуществующие академические ссылки, вымышленная цитата из решения Федерального суда и неправильно написанное имя судьи.
— Но если говорить о российских реалиях, какая позиция по ИИ будет в будущем?
— Я считаю, что главный итог 2025 года — это переход ИИ в России от стадии хайпа к стратегическому осмыслению. Основной вызов 2026 года — найти баланс между стимулированием инноваций и контролем рисков, между делегированием задач алгоритмам и сохранением человеческого суждения. Таким образом, будущее не за тотальной заменой людей ИИ, а за грамотным симбиозом, где технология усиливает, а не подменяет человеческий интеллект и ответственность.