В Москве состоялась третья встреча, посвященная искусственному интеллекту, которую организовали «Лаборатория Касперского» и MWS AI. На мероприятии обсудили ключевые события и тренды в сфере ИИ.
Эксперты говорили о том, как наука движет развитием технологий, какие мифы появились на счет ИИ в кибербезопасности и что за подводные камни встречаются при использовании RAG-систем. Подробнее читайте на «Компьютерре».
Наука как двигатель нового цикла ИИ
Открывающим докладом закрытого мероприятия для прессы «Дедлайн — вчера» стал рассказ Владислава Куренкова, руководителя научной группы «Адаптивные агенты» Института AIRI, о научной работе в сфере искусственного интеллекта.
Он объяснил, что исследовательская деятельность в этом направлении остается фундаментальной дисциплиной, близкой по устройству к физике или биологии. Задача исследователей — открывать новые принципы, архитектуры и методы, публиковать результаты и обеспечивать открытый код, без которого невозможно развитие экосистемы.
«Даже рост точности на 1% в научной статье может означать серьезный прорыв — этот небольшой шаг нередко масштабируется во что-то экспоненциальное дальше».
Владислав Куренков, руководитель научной группы «Адаптивные агенты» Института AIRI
Как продолжает ученый, публикации и цитируемость — это главная «валюта» научного сообщества, а строгая система рецензирования на крупных конференциях позволяет отделить по-настоящему ценные исследования от работ. Куренков подчеркнул ключевое различие между исследователями и продуктовыми командами: бизнес почти всегда использует уже найденные научные решения, а не создает новые алгоритмы.
Источником технологий становятся работы на arXiv и других научных площадках — по такому же пути в свое время создавался ChatGPT, так как OpenAI была исследовательской организацией до того, как ее идеи упаковали в продукт.
Главный тренд на конец 2025-го и начало 2026 года — переход к физическому искусственному интеллекту. Модели нового типа Vision-Language-Action умеют «видеть», понимать инструкции и выполнять действия, управляя роботами.
Первые значимые работы, вроде Robotics Transformer (RT-1) от Google DeepMind, запустили лавину исследований. За два года объем статей по этой теме вырос экспоненциально, а вокруг направления появились стартапы, привлекающие огромные инвестиции. Масштабирование данных — главный двигатель прогресса: от VR-телеметрии, которую собирает Tesla, до полностью синтетических симуляторов Nvidia.
Сегодня выстраивается новая архитектура индустрии, разворачивающаяся вокруг разработчиков VLA-моделей (языково-визуальных моделей, занимающихся высокоуровневым планированием), производителей робототехники и компаний, интегрирующих готовые решения. Куренков отметил, что рынок движется к массовой роботизации: роботы в домах, на складах, в сервисе — это не вопрос далекого будущего. В 2025 году стало очевидно, что технология работает в лаборатории, а в 2026-м она начнет работать у пользователей дома.
При этом классические лидеры отрасли, вроде Boston Dynamics, оказались в позиции догоняющих — их решения базируются на предыдущем технологическом укладе и требуют серьезной переработки. Одновременно с этим растет внимание к безопасности: принципы ограничений и защитных контуров для роботов будут развиваться так же стремительно, как исследования по безопасности языковых моделей.
Отвечая на вопросы «Компьютерры» о роботизации, Куренков отметил, что лидером по количеству производимых роботов сейчас остается Китай, однако по бытовой робототехнике — США и по складской автоматизации — также США. А о перспективах российских проектов он высказался осторожно-оптимистично: технологии развиваются, и первые результаты могут появиться раньше, чем многие ожидают.
Как злоумышленники на самом деле используют ИИ?
Владислав Тушканов, руководитель группы исследований и разработки технологий машинного обучения в «Лаборатории Касперского», выступил со своим докладом о киберугрозах, где рассказал, что вокруг нейросетей в кибербезопасности возникает двойной слой шума: хайп вокруг самих LLM-моделей и шум, связанный с цифровыми угрозами. Из-за этого отличить реальные события от преувеличений, не углубившись в новость, бывает непросто. Поэтому, чтобы разобраться, эксперт посоветовал ориентироваться на два ключевых источника.
Первый — это отчеты разработчиков больших моделей вроде OpenAI, Anthropic и Google: они видят реальные диалоги злоумышленников с ИИ и фиксируют попытки автоматизировать этапы атак — от обхода детекторов и поиска данных после компрометации до подготовки фишинговых текстов и преодоления языковых барьеров.
Второй — исследования компаний кибербезопасности, которые, анализируя вредоносное ПО, нередко находят в нем следы генерации средствами LLM: неиспользуемые импорты, странные комментарии вроде «print result», неконсистентный (несогласованный) стиль кода. Похожие признаки появляются и в инструментах, которыми пользуются группировки, работающие против российских организаций.
В совокупности источники дают следующую картину: ИИ активно вошел в инструментарий злоумышленников и изменил две вещи: активность преступников — теперь даже низкоквалифицированные злоумышленники получили доступ к более сложным инструментам, и скорость взлома — большие языковые модели работают круглосуточно и ускоряют все этапы атаки. При этом, по словам спикера, принципиально новых типов атак пока не появилось.
«Есть две вещи. Первое — это так называемая активность: люди с минимальными навыками теперь могут действовать на уровне гораздо более опытных злоумышленников. Второе — скорость: LLM работают круглые сутки и значительно ускоряют весь процесс. Но при этом принципиально новых видов атак не появляется — ничего радикально нового здесь нет».
Владислав Тушканов, руководитель группы исследований и разработки технологий машинного обучения в «Лаборатории Касперского»
При этом ИИ — это не только инструмент атакующих. По словам Тушканова, в продуктах «Лаборатории Касперского» машинное обучение давно используется для анализа телеметрии, поиска паттернов атак, автоматизации нестандартных решений. Как рассказывает эксперт, потенциал развития тут огромен: данных в кибербезопасности много, а генеративные модели и агенты позволяют обрабатывать их более гибко и быстрее.
На вопрос «Компьютерры» о том, не станет ли противостояние нападающих и обороняющихся в «битву ИИ против ИИ», Тушканов отметил, что это не сценарий будущего, а уже реальность. Противостояние напоминает вечную эволюцию антиспама: одна сторона придумывает защиту, другая переходит к обходу, и так по кругу.
«Это действительно состязательная сфера — как в историях с антиспамом. Появилась электронная почта — и сразу нашлись те, кто стал рассылать рекламу. Появились фильтры по ключевым словам — отправители начали убирать эти слова или разбивать их пробелами. И так это тянется до сих пор. В других областях безопасности происходит то же самое», — поясняет он.
Говоря об итогах 2025 года и ожиданиях от 2026-го, Тушканов подчеркнул: ключевым трендом станут агенты — именно они будут задавать тон развитию средств защиты. А вот «революции» со стороны атакующих он не ожидает: изменения происходят постепенно. Новые модели действительно повышают доступность атак, но принципиально новых схем пока не появится. «Мы ко всему готовы», — отметил Тушканов.
Что нужно знать о RAG-системах
Валентин Малых, руководитель исследований в области NLP в MWS AI, дополнил выступления коллег своим рассказом о RAG-системах. Он выделил три ключевых момента, которые бизнес и разработчики часто упускают из виду, следуя общим трендам.
Первое — гибридный поиск не опция, а необходимость. Малых предупредил об опасной моде использовать для поиска документов в RAG-системах только векторные модели текста (эмбеддинги). Модели-эмбеддеры, по его словам, не видят разницы между, например, фамилиями Иванов и Петров — для них это почти одно и то же. Спасти ситуацию может только гибридный подход, комбинирующий семантический (связанный по смыслу) поиск по векторам с классическими, лексическими методами. Без этого качество системы будет низким.
Второе — длинное контекстное окно не отменяет RAG. С появлением моделей, «проглатывающих» сотни страниц текста, многие решили, что необходимость в сложном поиске документов отпала. Это заблуждение. «Если у вас 10 тысяч договоров, то они ни в одну модель не влезут, просто не влезут, и все», — пояснил эксперт. Хотя работа с длинным контекстом и дает высокое качество, RAG позволяет достичь сопоставимых результатов, потратив в десять раз меньше ресурсов.
Третье — эра нового OCR (оптического распознавания символов) уже наступила. Самый неочевидный, но многообещающий тренд — это смерть OCR в его классическом понимании. По словам Малых, теперь можно напрямую задавать вопросы к документу как к картинке, получая точные ответы. Текстовое распознавание уступает место моделям, которые понимают и интерпретируют весь документ целиком в его визуальном представлении.
Таким образом, эффективное использование RAG требует гибридного поиска, не заменяется длинным контекстом и открывает новые возможности благодаря моделям, работающим с визуальным представлением документов.
Вывод
На встрече «Лаборатории Касперского» и MWS AI эксперты доказали, что искусственный интеллект активно внедряется в бизнес, кибербезопасность и робототехнику. Наука по-прежнему определяет фундаментальные принципы, но реальные приложения — от агентов и RAG-систем до моделей с визуальным контекстом — дают ощутимые результаты сегодня.
В кибербезопасности ИИ стал инструментом как для защиты, так и для атак, при этом ключевыми изменениями остаются скорость и доступность действий, а не принципиально новые схемы нападения или противодействия. Технологии развиваются комплексно: от гибридного поиска и анализа больших массивов данных до роботизации и новых подходов к обработке документов, что подтверждает зрелость и устойчивый рост экосистемы ИИ в России и мире.