Директор по инновациям ГК InfoWatch рассказывает, как найти баланс между пользой и рисками от ИИ в корпоративной среде
Технологии ИИ интегрируются в работу многих российских компаний — начиная с применения генеративных нейросетей, заканчивая внедрением полноценных систем автоматизации бизнес-процессов на базе ИИ. Вместе с новыми возможностями, современные технологии вызывают определенные риски и опасения в безопасности.
Директор по инновациям ГК InfoWatch рассказывает, как найти баланс между пользой и рисками от ИИ в корпоративной среде.
— Как вы оцениваете популярность и распространение ИИ-технологий на российском рынке?
— Для оценки внедрения новой технологии хорошо подходит Цикл Гартнера (Gartner Hype Cycle) — это модель, которая описывает этапы развития технологии от стадии хайпа до продуктивного использования. Оценивая внедрение ИИ по Гартнеру, мы уже прошли стадию хайпа и находимся в цикле адаптации (adoption). То есть, ИИ уже приносит прибыль. Правда, не всем компаниям, поэтому цикл до конца не пройден.
— Какие бизнес–задачи решает ИИ и где внедряется активнее всего?
— В применении ИИ есть несколько разных подходов. Например, ИИ хорошо интегрируется в системы с большими данными, где машинное обучение подходит для извлечения из них «нового золота». Есть успешные кейсы в металлургической отрасли, где разрабатываются и внедряются собственные ИИ-платформы. В металлургии, как и в ряде других сложных промышленных областей, большие данные изначально не читаемы для человека — они приходят с массы датчиков, которыми оснащено производство. Поэтому применение машинного обучения для их обработки там гармонично.
Другой подход — где данные генерируются потоком людей. Там машинное обучение применяется для того, чтобы разделить их по потребностям и выполнить хотя бы базовые запросы. Пример — все онлайн-сервисы поддержки — банки, страховые компании и прочие.
— Каких решений сейчас больше на российском рынке: российских или зарубежных?
— На рынке в принципе отсутствуют готовые «коробочные» решения, связанных с машинным обучением. С помощью технологий open-source каждая крупная компания разрабатывает свое решение и адаптирует успехи мировой науки в собственных нуждах.
— Как компании использовать возможности ИИ, не создавая брешей в информационной защите?
— Риски разные и они зависят от того, в какой сфере и как применяются технологии машинного обучения. Например, применение ИИ в автомобиле для автопилота несет риск ДТП и даже человеческих жертв. Использование больших языковых моделей грозит утечкой данных, манипуляциями с данными, а также ошибками в запросах, которые могут привести к негативным последствиям.
Поэтому каждую нейросеть требуется настроить так, чтобы она работала исключительно в своей сфере и по своим задачам. Чат-бот банка не должен вести с пользователем философские споры. Для этого требуется предварительная фильтрация через настройки — своеобразный файрволл, а также пост-обработка с целью исключения вредоносных инъекций и запросов.
— Может ли ИИ стать инструментом команды безопасников?
— Да, при этом в некоторых случаях ИИ может минимизировать «человеческий фактор». Для примера, возьмем DLP-систему, которая обладает большим набором данных о действиях сотрудников. Чтобы получить из этого то самое «новое золото», важно правильно сформулировать запрос — такой компетенцией обладает только ИБ-специалист. Однако формулировка запросов связана, как правило, с расследованием инцидентов внутри компании, поэтому заказчики DLP-систем предпочитают минимизировать вовлечение других сотрудников в эту работу. Здесь на помощь может прийти ИИ. Так, для нашей DLP-системы разработан «Младший аналитик».
— Насколько сложно внедрять в бизнесе и в ИБ такие ИИ-механизмы?
— Если брать наш опыт, то основная сложность это как раз внедрение самой DLP-системы. Она проникает во все аспекты ИТ-инфраструктуры компании и контролирует все информационные потоки. Вторая сложность — определить, что именно нужно контролировать, и здесь помогают технологии машинного обучения, поскольку вновь минимизируется влияние человеческого фактора. Наша система использует данные заказчика, но не учится на них — это сильно упрощает внедрение.
— Нужны ли новые правовые рамки для использования ИИ в бизнесе?
— Сейчас даже нельзя однозначно дать сформулированное определение ИИ. Идет взрывной рост технологий с разной базой — LLM, генеративные модели, специализированные решения. Область слишком динамично развивается и оценить то, что именно мы хотим регулировать, сложно.
— Какие подходы есть у отраслевых регуляторов?
— Сейчас продвигаются и предлагаются разные подходы. Один подход считаю правильным — формализация векторов атак и его постоянная актуализация через сбор новых угроз. Компании, внедряющие ИИ-решения, должны нести ответственность за них — адекватно оценивать риски и понимать, что с ними делать в случае реализации, быть готовыми к ним.
— Если поговорить о будущем, какие наметились тренды в развитии ИИ?
— Основной тренд — мультимодальность языковых моделей. Например, в LLM-модели внедряют генераторы картинок и другие сущности. Эти модели будут активнее применяться в роботизированной среде.
Другой тренд — безопасность взаимодействия с нейросетью. Поскольку не все компании могут позволить себе собственную нейросеть с LLM-моделью, а стороннему решению опасно доверять все свои данные. Будет развиваться интеграция, при которой передавать свои данные нейросети из облачного сервиса будет не так опасно.
— Какие ИИ-решения будут нужны бизнесу в будущем?
— Будут востребованы недорогие в содержании ИИ-модели для решения конкретных прикладных задач.
— Когда ИИ полностью будет адаптирован и внедрен всеми?
— Согласно Циклу Гартнера, не все компании прошли стадию адаптации. Основное условие — низкая стоимость владения ИИ-технологиями. Польза от инструмента должна быть выше, чем стоимость владения им.