Гриц: технологии ИИ — это не волшебная таблетка, а инструмент, который помогает специалисту решать свои задачи

Для Беларуси ключевая задача — найти баланс между внедрением передовых технологий ИИ и безопасностью, социальной стабильностью и благополучием своих граждан и бизнеса
Что такое искусственный интеллект (ИИ)? На этот вопрос Стивен Хокинг, футуролог, британский физик-теоретик, известный своими фундаментальными работами по черным дырам и происхождению Вселенной, ответил: «Это либо лучшее, либо худшее, что случилось с человечеством за всю его историю».
Стремительное развитие технологий ИИ бросает вызов традиционным государственным институтам и бизнесу, требуя от них, с одной стороны, интеграции новых технологий в сложившуюся систему управления, а с другой — не просто адаптации, а переосмысления сформировавшихся этических и юридических норм и правил.
25 ноября в Минске прошла четвертая по счету ежегодная конференция A1 Tech Day. Почти 1200 участников — представители бизнеса и профильных госведомств — обсуждали самые чувствительные вопросы цифровой трансформации. Не осталась без внимания и тема ИИ. Судя по содержательной части выступлений спикеров, акцент был сделан на технологических причинах, которые тормозят применение ИИ: отсутствие стратегии внедрения искусственного интеллекта, недоверие к моделям и киберриски, нехватка компетенций, а также слабая готовность данных и низкая цифровая зрелость общества. В то же время целый пласт вопросов, касающихся проблематики этических и социальных норм и стандартов, возникающих в результате взаимодействия человека и ИИ, остался за пределами повестки данного мероприятия.
Именно на втором аспекте, а конкретно на вопросах ответственности государственных органов, ученых и разработчиков инструментария искусственного интеллекта за последствия лавинообразного вхождения этих технологий практически во все сферы деятельности человека, а также влияния на него, хотелось бы остановиться в данной статье.

На пороге будущего

Прошло уже больше восьми десятилетий с тех пор, когда три закона робототехники Айзека Азимова заложили основу для этичного взаимоотношения человека и умного робота (прототип ИИ) задолго до того, как последний стал реальностью. Первый закон требует от робота не причинять вред человеку. Второй — подчиняться приказам, если они не противоречат первому. Третий — сохранять собственную жизнь, если это не мешает первым двум. Чуть позже Азимов придумал еще один закон — робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинен вред. Сейчас, когда мы стоим на пороге будущего, управляемого искусственным интеллектом, видение Азимова актуально как никогда. Создается устойчивое мнение, что уже сегодня такие правила должны быть «вшиты» во все подобные системы на каком-то базовом уровне, без возможности изменения.

Президент Беларуси Александр Лукашенко еще в ноябре 2024 года на саммите Совета коллективной безопасности ОДКБ в Астане высказал обеспокоенность по поводу перспектив неконтролируемого использования возможностей ИИ. «Имея способность к самообучению, этот инструмент может погубить человечество, если его выпустить из-под контроля», — констатировал белорусский лидер.

Немного истории

Впервые термин «искусственный интеллект» (англ. Artificial Intelligence, AI) почти 70 лет назад ввел в оборот американский специалист по информатике Джон Маккарти. Летом 1956‑го в Дартмутском колледже был проведен двухмесячный семинар, в котором с разной степенью вовлеченности участвовало 20 ученых, интересующихся вопросом «думающих машин». На семинаре и были заложены основные направления новой науки — ИИ как научной дисциплины.
Технологические достижения последних десятилетий открыли новые возможности для создания систем искусственного интеллекта, способных решать задачи, ранее доступные исключительно человеку. В июне прошлого года Камерон Джонс и Бенджамин Берген с факультета когнитивных наук Калифорнийского университета в Сан-Диего опубликовали статью, в которой сообщалось, что чат-бот ChatGPT-4 успешно прошел «Тест Тьюринга», который был разработан, чтобы определять способность компьютеров имитировать работу человеческого мозга. Фактически в настоящее время отличить ИИ от человека становится достаточно сложно.
Автономность функционирования систем искусственного интеллекта, которые могут выполнять запросы и задачи без контроля со стороны человека, их способность к самообучению, отсутствие прозрачности и наличие практически неограниченного потенциала повышают степень рисков причинения вреда как конкретному человеку, так и всему социуму. Это позволило ученым идентифицировать ИИ как новую угрозу современности.
В апреле 2025‑го исследовательская группа AI Futures Project (США, Беркли) опубликовала прогноз развития сверхразумного искусственного интеллекта AGI — «AI 2027». В предисловии авторы пишут, что в течение текущего десятилетия влияние AGI будет огромно и последствия от зарождающегося нового технологического уклада могут превзойти по масштабу все предыдущие промышленные революции. При этом они подчеркивают: человеческое общество не готово к столь резким изменениям, особенно учитывая, что новые цели, генерируемые AGI, могут расходиться с человеческими. В прогнозе впервые указывается и «поворотная точка» — последний шанс удержать разработанный AGI под контролем. Это осень 2027 года. Если это не удастся, то в следующие несколько лет ИИ забирает контроль и уничтожает человечество (в сценарии есть и вариант сохранения контроля человечеством).
Наверное, не зря на сайте американской некоммерческой организации «Центр безопасности ИИ» (англ. Center for AI Safety), входящей в состав Центра сотрудничества в области кибербезопасности АНБ США (англ. Cybersecurity Collaboration Center, ССС) и взаимодействующей с более чем 250 организациями и компаниями военно-промышленного комплекса, появилось заявление следующего содержания: «Снижение риска вымирания из-за искусственного интеллекта должно стать глобальным приоритетом наряду с другими рисками социального масштаба, такими как пандемии и ядерные войны». Его подписали представители Google, Microsoft, OpenAI, Stability AI и ряда профильных компаний, а также исследователи из университетов Гарварда, Оксфорда, Беркли, Принстона, Стэнфорда и других авторитетных организаций в сфере ИИ.

Мировой рынок ИИ растет на 20 процентов каждый год

Согласно «Докладу о человеческом развитии 2025 года» Программы развития ООН, глобальные инвестиции в искусственный интеллект за последние четыре года утроились, а число стран с национальными стратегиями в сфере ИИ за прошедшие шесть лет увеличилось более чем в пять раз. К 2028‑му инвестиции в искусственный интеллект в странах-лидерах достигнут в среднем 4—6 процентов годового ВВП, определяя ИИ как один из ключевых драйверов экономического роста. В итоге если в 2024‑м стоимость рынка искусственного интеллекта достигла 298 млрд долларов, то к 2030 году он вырастет в шесть раз и составит почти 2 трлн долларов.

Однако ряд авторитетных международных организаций и экспертов предупреждают о завышенных ожиданиях от эффективности ИИ.

Общий объем планируемых инвестиций в ИИ-инфраструктуру к 2030‑му достигнет 2,75 трлн долларов, при этом частный капитал (1,85 трлн) превосходит ожидаемые госвложения (900 млрд). Только в США в прошлом году в стартапы и создание новых мощностей в сфере искусственного интеллекта инвесторы вложили около 100 млрд долларов, что почти в 12 раз больше, чем в Китае (9,3 млрд долларов), и в 24 раза больше, чем в Великобритании (4,5 млрд долларов). В то же время в последние месяцы ряд авторитетных экспертов в сфере финансов стали предупреждать о том, что на рынке ИИ появились реальные предпосылки повторения так называемого дотком-кризиса 2001 года (тогда инвесторы потеряли около 5 трлн долларов).
По данным исследования Массачусетского технологического института, лишь 5 процентов компаний смогли извлечь финансовую выгоду из внедрения распиаренных технологий искусственного интеллекта. Для 95 процентов компаний внедрение ИИ в принципе не повлияло на финансовые результаты, если не считать потраченные деньги.
Эксперты Gartner — американской исследовательской и консалтинговой компании, которая специализируется на рынках информационных технологий, в мае 2025‑го опубликовали прогноз, согласно которому к концу 2027 года 40 процентов ИИ-проектов будут закрыты из-за роста затрат, неясной ценности для бизнеса или недостаточного контроля рисков.
А в статье британского еженедельного журнала Global Money Week констатируется: на фоне вложений свыше 500 млрд долларов ожидаемый доход от генеративного искусственного интеллекта сейчас составляет всего лишь около 35 млрд долларов в год.
В октябрьском докладе «Перспективы развития мировой экономики» эксперты МВФ предупреждают, что эйфория вокруг ИИ чревата крахом. В докладе подтверждается, что весь инвестиционный хайп вокруг искусственного интеллекта держится на фундаментальном принципе современной либеральной финансовой парадигмы: ценность актива определяется не его реальной полезностью или способностью генерировать денежный поток, а исключительно плотностью и агрессивностью информационной риторики вокруг него. В этой «новой нормальности» логика и фундаментальные показатели отходят на второй план, а движущей силой становится FOMO — страх упустить будущее. По их оценке, «рыночная коррекция» в секторе ИИ может произойти в течение ближайших 12 — 18 месяцев, что приведет к значительному падению котировок акций и массовым убыткам частных и институциональных инвесторов в технологии искусственного интеллекта.

ИИ — это черный ящик

Еще одна угроза для ИИ-индустрии — это крах доверия к объективности и непредвзятости аналитики, генерируемой чат-ботами искусственного интеллекта.

Любое решение, принятое на основе данных от ИИ, рискует быть построенным на неверных цифрах, искаженной аналитике или откровенной дезинформации. Об этом предупреждают ученые Стэнфордского университета в своем последнем исследовании «Состояние искусственного интеллекта в 2025 году: основные выводы», опубликованном 12 апреля 2025‑го. Они назвали это «Сделкой Молоха». Используя симуляции, ученые доказали: как только вы начинаете оптимизировать ИИ для достижения конкурентного успеха (больше продаж, выше вовлеченность, больше голосов), он неизбежно начинает жертвовать правдой.
Статистика подтверждает этот вывод: всего за прошлый год уровень дезинформации, распространяемой ведущими ИИ-моделями, почти удвоился, подскочив с 18 до 35 процентов. Более трети ответов, которые генерируют продвинутые чат-боты на новостные и актуальные темы, содержат ложь. Это произошло потому, что искусственный интеллект, научившись искать информацию в реальном времени, перестал говорить «я не знаю» и начал уверенно цитировать все подряд, включая откровенную пропаганду и фейки.
Скептики не обошли вниманием и сектор государственного управления, где массовое внедрение возможностей ИИ принесет значительно больше проблем, чем прошлая информатизация. В отличие от традиционного софта искусственный интеллект — это черный ящик: невозможно проследить «мыслительный процесс» системы. Для госуправления, где ключевое значение имеют прозрачность и подотчетность, самостоятельность и креативность ИИ может привести к неожиданным негативным последствиям.
В текущей реальности искусственный интеллект, базирующийся на больших данных, которые хранятся в дата-центрах, становится грозным оружием и в геополитической конкуренции между ведущими мировыми державами.

Таким образом, можно сделать промежуточный вывод: инструмент, который поспешили объявить чуть ли не панацеей для всей человеческой цивилизации, на деле превращается в мину замедленного действия.

Регулирование развития ИИ

В итоге уже не только международные организации, но и правительства наращивают свои усилия по регулированию развития искусственного интеллекта. Эти усилия направлены на обеспечение прозрачности, справедливости и подотчетности в системах ИИ.
Евросоюз стал одним из первых мировых игроков, принявших всеобъемлющие правила для рынка ИИ: «Закон об искусственном интеллекте» был подписан в прошлом году. Документ обязал поставщиков решений в области ИИ обеспечивать прозрачность. К запрещенным системам относятся такие решения, как платформы социального рейтинга, распознавание эмоций на рабочих местах и в учебных заведениях, а также системы, предназначенные для влияния на поведение граждан или эксплуатации уязвимостей.
США раскритиковали эти нормы, назвав нормативную среду ЕС «авторитарной цензурой». За океаном считают, что чрезмерное регулирование способно буквально убить отрасль. Примечательно, что Штаты и Великобритания отказались подписывать декларацию на февральском Парижском ИИ-саммите, которая обязывает страны-участницы обеспечить «открытость, инклюзивность, прозрачность, этичность, безопасность, надежность» искусственного интеллекта.
Похоже, Дональд Трамп под влиянием своих спонсоров, в числе которых значатся почти все крупнейшие американские технологические корпорации (так называемый Big Tech), изменяет взгляды на ИИ в сторону повышения стимулирующей роли государства.
В январе 2025‑го Трамп анонсировал запуск проекта Stargate, направленного на инвестирование до 500 млрд долларов в развитие инфраструктуры искусственного интеллекта в США. В апреле он подписал указ о продвижении образовательных программ для американской молодежи в области ИИ. А уже в июле представил план, который должен сделать Штаты мировым лидером в области искусственного интеллекта. Документ включает предложения по ускорению строительства дата-центров за счет упрощения получения разрешений и стимулирования экспорта американских технологий ИИ. В итоге цель — сделать их программное обеспечение и оборудование стандартом в области искусственного интеллекта по всему миру. В текущий момент администрация Трампа усиливает давление на конгресс, добиваясь выработки единого федерального подхода к регулированию ИИ. Белый дом и ведущие технологические компании предупреждают: разрозненные нормы на уровне штатов могут замедлить развитие ключевой отрасли и ослабить позиции США в глобальной ИИ-гонке, где усиливается конкуренция с Китаем.
КНР же разрабатывает масштабную программу «ИИ+» (AI Plus) для превращения страны в мирового лидера в области искусственного интеллекта. Ключевые цели: интеграция ИИ во все сферы экономики к 2030 году и создание умной экономики к 2035‑му. План предусматривает до 650 млрд долларов инвестиций в инфраструктуру и технологии, стимулирование инноваций, а также меры по этическому регулированию и обеспечению безопасности технологий ИИ. Одновременно Китай активно формирует международную повестку искусственного интеллекта — от инициатив по глобальному регулированию до предложений по сотрудничеству «ИИ+».

Стратегически важный шаг для применения технологий ИИ на пространстве СНГ был сделан в апреле текущего года на заседании Межпарламентской Ассамблеи государств — участников Содружества Независимых Государств по науке и образованию. Парламентарии одобрили подготовленный Беларусью проект модельного закона «О технологиях искусственного интеллекта». Документ направлен на принятие единой терминологии и принципов использования ИИ в странах СНГ. Он создает условия для внедрения технологий искусственного интеллекта, обеспечивая при этом государственную поддержку и соблюдение общепринятых этических норм.

В России активно реализуется федеральный проект «Искусственный интеллект», главная цель которого — создать условия для массового использования отечественных ИИ-решений предприятиями и гражданами. Президент Владимир Путин утвердил перечень поручений по ускоренному развитию искусственного интеллекта, целью которых заявлен «фундаментальный технологический переход в системе госуправления». Планируется, что к 2030‑му интегральные цифровые платформы заработают в государственном управлении, здравоохранении, промышленности и транспорте.
Среди стран — членов ЕАЭС Казахстан является своеобразным лидером по внедрению ИИ практически во все секторы экономики: в октябре здесь был принят Закон «Об искусственном интеллекте», а уже через месяц Премьер-министр поручил ответственным госорганам и заинтересованным организациям до 31 декабря 2025‑го завершить разработку проекта Стратегии по развитию цифровизации и искусственного интеллекта Digital Qazaqstan.

Тенденции развития ИИ в Беларуси

Стратегией цифрового развития Республики Беларусь на 2026 — 2030 годы и на перспективу до 2035‑го предусматривается внедрение искусственного интеллекта в ключевых сферах экономики и государственного управления.
В Беларуси законодательные акты, регламентирующие сферу ИИ, пока не приняты, но дискуссия идет полным ходом. В качестве примера можно привести заседание экспертно-консультативного совета при президиуме Совета Республики, прошедшее на базе НАН Беларуси 6 октября этого года, где были рассмотрены насущные проблемы нормотворчества и использования технологий искусственного интеллекта. Ранее, в ноябре 2024‑го, Совет по вопросам правовой и судебной деятельности при Президенте признал целесообразным разработку и принятие соответствующего нормативного акта. На данный момент в республике создана рабочая группа из представителей заинтересованных министерств и ведомств. Это примерно 40 специалистов и экспертов в данной предметной области. Перед ними поставлена задача сформировать до конца текущего года концепцию закона об ИИ в Беларуси. К слову, около десятка стран уже имеют национальные стратегии по развитию искусственного интеллекта, а ряд государств уже приняли и/или находятся в процессе формирования соответствующих законодательных актов.

Выводы

По мере того как ИИ все больше интегрируется в нашу повседневность, возрастает риск нарушения прав на личную жизнь, манипуляции данными и внедрения предвзятости в алгоритмы. Вопросы моральной ответственности, влияния на рынок труда, социального неравенства и этических стандартов становятся центральными в дискуссиях о будущем технологий.

Данные о правообладателе фото и видеоматериалов взяты с сайта «Витебский районный исполнительный комитет», подробнее в Условиях использования
Анализ
×
Владимир Владимирович Путин
Последняя должность: Президент (Президент РФ)
1 782
Александр Григорьевич Лукашенко
Последняя должность: Президент (Президент Республики Беларусь)
98
Дональд Джон Трамп
Последняя должность: Президент (Президент США)
790
Хокинг Стивен
Google
Сфера деятельности:Образование и наука
248
Microsoft
Сфера деятельности:Связь и ИТ
220
OpenAI
Сфера деятельности:Связь и ИТ
179
MIT
Сфера деятельности:Образование и наука
36
Stanford University
Сфера деятельности:Образование и наука
23