Часть российских ведомств планирует использовать зарубежные модели ИИ для своей работы — как китайскую Qwen, так и американские разработки компании Meta (признана в России экстремистской и запрещена), выяснил Forbes, проанализировав паспорта цифровизации органов исполнительной власти. В ведомствах рассказали, что тестируют и сравнивают возможности различных моделей ИИ в закрытом контуре. Эксперты говорят, что полностью независимый суверенный ИИ недостижим в ближайшем будущем
Новый результат
В начале 2026 года в планах по цифровизации органов исполнительной власти появился новый пункт — использование искусственного интеллекта (ИИ). Forbes проанализировал паспорта ведомственной программы цифровой трансформации органов власти на 2026-2028 годы. Из 55 паспортов, просмотренных Forbes, 40 ведомств еще пока не определились с выбором ИИ. Среди тех, кто уже решил, какими инструментами будет пользоваться, значимая часть предпочла зарубежные нейросети.
Чаще всего упоминается китайская нейросеть от Alibaba — Qwen. Так, Ространснадзор планирует использовать Qwen для обработки обращений граждан, а Росалкогольтабакконтроль — для уведомлений о начале оборота алкогольной продукции. Минпромторг планирует использовать Qwen и другие, как зарубежные, так и отечественные модели, для работы с документами.
Telegram-канал Forbes.Russia
Канал о бизнесе, финансах, экономике и стиле жизни
Некоторые ведомства просто обозначили, что планируют использовать зарубежные модели, без указания о том, какие именно. Например, Росавтодор планирует использовать иностранные LLM (large language model, большая языковая модель) для создания цифрового профиля автомобиля, чтобы его можно было распознавать по особым «приметам», даже если номер скрыт.
Есть и такие ведомства, которые выбрали разработки ИИ-подразделением американской Meta (признана в России экстремистской и запрещена). В частности, Минкульт планирует реализовать поиск музейных предметов по изображениям на базе модели OPT. Федеральное медико-биологическое агентство (ФМБА) планирует использовать не только отечественные модели, но и Llama, также разработанную Meta.
Некоторые ведомства указали, что планируют использовать разработку «Сбера» — GigaChat. Например, Минюст намерен использовать GigaChat для проверки типовых документов и поиска информации, а МИД — для распознавания речи и перевода текстов. Роскомнадзор планирует использовать Astra AI (разработка «Группы Астра») для фильтрации интернет-трафика.
Часть ведомств выбрала отечественные модели, не указав, какие именно. Например, Минэкономразвития планирует использовать отечественный ИИ для анализа открытых комментариев граждан о качестве предоставления госуслуг и выявления причин недовольства ими. Минфин — для создания ИИ-агента, помогающего отвечать на обращения граждан. Росреестр — для проекта «Ева для Госуслуг» (помогает обрабатывать документы). Федеральный фонд обязательного медицинского страхования (ФОМС) с помощью отечественных моделей ИИ планирует рассчитывать риски здоровья застрахованных.
Сравнение эффективности
В Ространснадзоре отметили, что Qwen была выбрана исходя из скорости качества и требования сервера для локального развертывания. «На данный момент рассматривается возможность перехода на отечественную модель GigaChat3‑10B‑A1.8B от «Сбер», которая появилась позднее», — добавили в ведомстве.
В Росалкогольтабакконтроле рассказали, что указали Qwen в качестве примера. «Наши требования к модели просты: она должна быть бесплатной, свободно распространяемой и с возможностью локального использования, то есть без задействования внешних сервисов. В ходе закупочных процедур интеграторы смогут представить собственные модели, в том числе отечественной разработки», — рассказали в службе.
В Минпромторге подчеркнули, что проводят эксперименты с использованием российского ИИ, а также свободно распространяемых моделей, размещенных в локальном контуре. «Использование иностранных моделей носит исследовательский характер и направлено на сравнительную оценку их эффективности. Открытые решения оптимальны для минимально жизнеспособных продуктов (minimal viable product, MVP). Они позволяют в сжатые сроки проверять гипотезы, формировать требования к функционалу без существенных затрат. При переходе к промышленной эксплуатации Минпромторг ориентируется на использование отечественных разработок, что обусловлено требованиями к достижению технологического суверенитета, надежности и безопасности», — рассказали в министерстве.
В Росавтодоре отметили, что во время формирования ВПЦТ в федеральной ГИС координации информатизации (ФГИС КИ) был небольшой выбор вариантов для детализации применяемых ИИ-решений. «Готового коробочного решения под выполнение данной конкретной задачи на отечественном рынке нет, поэтому и разрабатывается собственная модель ИИ, — пояснили в агентстве. — Разрабатываемое решение базируется на технологии компьютерного зрения, в его основе используются иностранные open-source библиотеки. Поэтому при описании проекта во ФГИС КИ и был выбран пункт «прочие иностранные LLM», как наиболее близкий по смыслу. На основе этих библиотек разрабатывается система компьютерного зрения, которую специалисты ведомства обучают на основе собственных данных, под конкретную задачу».
Прикладные задачи
В Минюсте подчеркнули, что внедрения ИИ в 2026 году запланированы министерством в соответствии с перечнем поручений президента по итогам конференции «Путешествие в мир искусственного интеллекта», а также поручениями аппарата правительства и правительственной комиссии по цифровому развитию.
В Минфине рассказали, что сейчас тестируют инструменты генеративного ИИ, в том числе GigaChat, кроме того, идет апробация решений от МТС и «Яндекса».
ИИ-решения в работе МИД используются в прикладных задачах, в частности для первичной расшифровки аудиовизуального контента, создания коллажей и инфографики, рассказали в министерстве, добавив, что МИД всегда маркирует нейросетевой контент.
В Роскомнадзоре пояснили, что при планировании мероприятий ВПЦТ (Ведомственные программы цифровой трансформации) на 2026-2028 годы в начале этого года в документе была указана одна из возможных моделей (Astra AI). «Вместе с тем быстрое развитие технологий машинного обучения обеспечивает появление новых пригодных для практического применения решений, которые постоянно проходят лабораторные испытания. Ведомство примет решение в пользу той или иной реализации модели ИИ после анализа работы каждой из них», — добавили в Роскомнадзоре.
Сервис «Ева» предназначен для автоматизации проверки документов при регистрации прав и кадастровом учете, отметили в Росреестре. «Все отечественные языковые модели (LLM) и алгоритмы машинного обучения размещены в изолированном сегменте сети Росреестра. Отсутствие доступа к сети гарантирует сохранность персональных данных и защиту от внешних киберугроз», — добавили в службе.
Руководитель направления по работе с государственным сектором MWS AI (входит в МТС Web Services) Михаил Андрианов рассказал, что MWS AI реализует ряд проектов совместно с министерствами и другими государственными организациями.
Forbes также направил запросы в Минкультуры, Минэкономразвития, Минстрой, ФМБА, ФОМС, «Яндекс», «Сбер» и «Группа Астра».
Юрист коллегии адвокатов Pen & Paper Анна Лысенко пояснила, что нет специального закона, устанавливающего обязательные требования к использованию ИИ госорганами. Сейчас только обсуждается первый системный закон об ИИ, который вводит категории моделей. Предполагается, что для использования в государственных системах будут допускаться только модели из специального реестра, прошедшие проверку, включая требования безопасности, добавил он.
«Черный ящик»
Современные нейросети построены на открытых библиотеках и глобальных данных, отметил аналитик центра мониторинга киберугроз «Спикатела» Роман Малышкин. «Российский GigaChat — редкое исключение, где модель обучали с нуля, а не на базе чужой архитектуры, но это колоссальный по затратам проект, требующий сотен миллионов долларов. И то, при обучении GigaChat использовались в том числе англоязычные данные, потому что без этого модель просто не будет умной», — говорит он. С точки зрения безопасности абсолютная независимость ИИ не нужна, считает Малышкин. «Настоящий суверенитет состоит не в том, из какого кода собрана модель, а в том, где она работает и куда утекают данные. Российские ведомства уже интуитивно выбирают оптимальный путь: разворачивать даже зарубежные open-source модели в закрытом контуре, на своих серверах. Это минимизирует риск утечек», — заключил он.
Риск при использовании зарубежной LLM в ведомстве связан не только с тем, куда уходят данные, но и с происхождением самой модели, не соглашается с Малышкиным бизнес-консультант по ИБ Positive Technologies Алексей Лукацкий. «Даже локально развернутая модель остается «черным ящиком»: мы не знаем, на каких данных она обучалась, какие фильтры и правила выравнивания в нее заложены, какие культурные, политические, правовые или языковые перекосы она может воспроизводить. Это может влиять на результат: модель может иначе интерпретировать правовые тексты, обращения граждан, конфликтные ситуации, вопросы санкций, территориальные споры, государственную политику или чувствительные социальные темы», — поясняет он.
Кроме того, нельзя исключать риск скрытых дефектов или преднамеренных закладок, добавил эксперт. Лукацкий подчеркнул, что модель нельзя воспринимать как обычную библиотеку, которую достаточно скачать и положить в закрытый контур. «Нужна проверка происхождения весов, формата модели, контрольных сумм, способа сериализации, истории публикации, репутации автора, лицензии, тестирование на нежелательное поведение и отдельная оценка качества на российских правовых и ведомственных сценариях», — продолжает он. Так, закрытый контур снижает риск утечки данных наружу, но не снимает вопрос: доверяем ли мы самой модели, ее обучению, ее внутренним ограничениям и ее поведению в чувствительных ситуациях, заключает эксперт.
«О полной независимости ИИ можно говорить, если у нас есть модель, обученная нашими специалистами на российских данных с использованием российского фреймворка, операционной системы и железа. Все это недостижимо в обозримом будущем», — говорит технический директор HFLabs Никита Назаров. Он считает, что не нужно ставить цель создать полностью наш ИИ. «Глупо не использовать то, что уже сделано и выложено в open source, — это совершенно неоправданные затраты в железо, энергоресурсы, технологии обучения. Гораздо важней правильно взвешивать риски и управлять ими. Например, вряд ли стоит банку встраивать в бизнес-процессы облачный ИИ, создатели которого могут в любой момент отключить его для России», — заключил он.