По словам замглавы Минцифры Александра Шойтова, в настоящее время ведомство формирует большую межведомственную рабочую группу для регулирования в сфере искусственного интеллекта (ИИ). Группа создается в рамках поручения президента России по формированию штаба для управления в сфере ИИ. Об этом было заявлено на форуме РБК «Новая экономика: от итогов к стратегии».
Маркировака ИИ-контента
В Москве прошел форум РБК «Новая экономика: от итогов к стратегии» с участием заместителя главы Минцифры Александра Шойтова.
По словам замруководителя ведомства, в 2026 году дипфейки и компьютерные вирусы останутся в числе основных киберугроз, поскольку, по сути, они являются оборотной стороной новых технологий. В этой связи должны появиться дополнительные меры противодействия таким угрозам - это выявление и маркировка ИИ-контента. Существуют алгоритмы, как зарубежные, так и отечественные, которые позволяют выявлять дипфейки. Это сложная техническая проблема с различными постановками, но алгоритмы, по оценкам замминистра, достаточно эффективные. Однако это всегда будет противоборство между хакерами и специалистами по ИБ-безопасности.
«Против нас работают очень сильные команды. Именно для того, чтобы противодействовать им, были отрезаны определённые возможности [например, на получение кредиты, самозапреты]», - отметил он.
Что касается маркировки ИИ-контента, то в настоящее время обсуждается два подхода - маркировать оригинальное изображение, либо, наоборот, синтезированное. Но в любом случае ИИ-контент должен будет иметь определенный знак, свидетельствующий о создании его искусственным путем на базе ИИ-сервисов. Помимо этого необходимо будет обеспечить надежное подтверждение того, что в процессе преобразования файла эти метки сохраняются, соответственно, возникает необходимость в использовании криптографии, чтобы гарантировать целостности маркировки ИИ-контента.
По словам Александра Шойтова, ему больше нравится вариант с маркировкой оригинального изображения, потому что в этом случае такое изображение может маркировать сам автор. Кроме того, по мнению замглавы Минцифры, необходимо решить, маркировать ли весь ИИ-контент без разбора или только в наиболее чувствительных направлениях?
«Мы сейчас создаём большую межведомственную рабочую группу. Я думаю, что в 2026 году мы дадим уже основные ответы, как нормативно это регулировать и как технологически это делать… Каким образом это делать по отношению к искусственному интеллекту с учётом поручения президента по созданию штаба, чтобы все направления закрыть», - подчеркнул Александр Шойтов.
Напомним, в ноябре 2025 года президент России Владимир Путин поручил администрации президента и правительству создать «реальный штаб руководства» в сфере искусственного интеллекта. Ранее созданного Национального центра развития искусственного интеллекта при правительстве (НЦРИИ) недостаточно. По мнению Владимира Путина, стране нужен реальный штаб руководства отраслью, «если мы хотим, чтобы эта работа шла уверенно, наступательно по всем вышеназванным направлениям, то есть и по отраслям, и по регионам, по министерствам и ведомствам» - нужен такой штаб, который мог бы реально ставить задачи, добиваться исполнения и контролировать результат.
Замглавы Минцифры также отметил, что риск-ориентированный подход, связанный с защитой от киберугроз, должен «быть правильным», то есть он должен включать минимально необходимый набор технических мер для его реализации, но не в ущерб развитию. Определенные ограничения нужно вводить, но адекватно и очень осторожно, считает представитель регулятора.
Чувствительная сфера
Кроме того Александр Шойтов считает важным уделять в 2026 году пристальное внимание изучению рисков, которые, в принципе, могут возникать в результате применения технологий на основе ИИ. В частности, это комплекс организационных и технических мероприятий для повышения безопасности ИИ-систем, а также разработка дополнительных требований к надёжности и отечественной принадлежности разработчиков (они должны соответствовать критериям доверия и иметь российскую юрисдикцию).
В числе других задач - разработка принципов использования ИИ в общественно-политическом пространстве: этот аспект требует особого внимания, так как современные модели, вроде ChatGPT, иногда генерируют контент, нарушающий политические нормы. Они могут выдавать неверные исторические факты, например, кто победил во Второй мировой войне, или искажать информацию, связанную с принадлежностью территорий. Поэтому важно обеспечить правильную настройку моделей, чтобы избежать таких ситуаций.
И, наконец, внедрить механизм селективного применения ИИ, когда речь идет, к примеру, о научно-технической тематике.
«Если мы, например, говорим про космос, то DeepSeek по этой теме лучше обучен, не вижу причин его не использовать», - пояснил Александр Шойтов.
Такого рода ограничение сфер применения ИИ позволит повысить качество и точность результатов, используя возможности нейросетей там, где они действительно эффективны.