Из законопроекта об ИИ исключили норму, обязывающую онлайн-ресурсы проверять маркировку нейросетевого контента, сообщают «Известия» со ссылкой на новую версию документа. Бизнес предупреждал, что исполнить это требование технически невозможно, а ручная модерация повлекла бы колоссальные расходы. В новой версии законопроекта ответственность за маркировку ИИ-произведений ложится на владельцев нейросетей и самих авторов публикаций.
Маркировать ИИ-контент будут владельцы нейросетей
В предыдущей версии законопроекта онлайн‑площадки — например, социальные сети и маркетплейсы — были обязаны проверять все фото, тексты и видео пользователей на наличие элементов ИИ. Согласно инициативе, владельцы сайтов должны были бы удалять непромаркированный нейросетевой контент.
Теперь машиночитаемую маркировку аудиовизуального ИИ-контента будут обязаны обеспечивать сами владельцы ИИ-сервисов, сообщили «Известиям» в аппарате вице-премьера Дмитрия Григоренко. Случаи обязательной маркировки в будущем определит правительство.
По словам источника издания, норму смягчили после обсуждения инициативы с предпринимательским сообществом. Цель изменений законопроекта — снижение нагрузки на бизнес.
Читайте также:Рынок критикует закон о маркировке ИИ-контента: юристы указывают на противоречия, бизнес — на технические сложности
Технологий для массового распознавания ИИ-контента не существует — эксперты
Как объяснили «Известиям» в АНО «Цифровая экономика», в мире не существует инструментов, способных автоматизированно и точно определять, использовался ли ИИ при создании контента. Для ручной проверки понадобились бы огромные ресурсы.
Эксперты «Цифровой экономики» считают, что за маркировку ИИ-контента должны отвечать создатели продуктов. По мнению представителей организации, информирование об использовании нейросетей в произведениях повышает доверие пользователей к авторам и способствует росту аудитории.
Эксперт «Национальной технической инициативы» (НТИ) по технологиям Леонид Дробышевич добавил, что детекторы нейросетей регулярно ошибаются, особенно на отредактированном вручную ИИ-контенте. По его словам, без чётких критериев платформы были бы вынуждены удалять все сомнительные материалы с запасом или массово игнорировать нарушения.
Благодаря поправкам авторам больше не придётся опасаться удаления материалов только из‑за того, что они не сообщили об использовании нейросетей, подчеркнул эксперт.
В Wildberries & Russ отметили, что избыточные требования замедлят развитие ИИ
Представители Wildberries & Russ (RWB) в комментарии «Известиям» заявили, что на посреднических цифровых платформах ИИ-технологии применяются повсеместно — от оформления карточек товаров до аналитики рекомендаций. Постоянное информирование пользователей о каждом применении нейросетей, по мнению компании, усложнило бы клиентский опыт и снизило удовлетворённость сервисами.
В RWB также не видят целесообразности в том, чтобы обязательно использовать доверенных моделей ИИ на объектах, не относящихся к госсектору. Такие меры могут замедлить развитие нейросетевых технологий на площадках.
Контекст
В марте 2026 года Минцифры представило законопроект о регулировании искусственного интеллекта. Документ обязывал владельцев нейросетей маркировать созданный с их помощью контент, а соцсети — проверять наличие таких пометок и удалять нарушения. Инициатива столкнулась с критикой участников рынка.
Представители бизнес-сообщества заявили, что модерация ИИ-контента приведёт к росту дополнительных затрат на комплаенс и замедлению вывода продуктов на рынок. Особенно сильно поправки ударили бы по малому и среднему предпринимательству, считают эксперты.
В новой версии законопроекта, представленной в мае 2026 года, ИИ-модели также разрешат обучать на государственных данных после согласования с ФСБ. Для попадания в категорию «доверенных» нейросети должны быть включены в специальный реестр, критерии отбора в который определит правительство.
Авторы
Софья Сарычева Автор