Не дай алгоритму себя подставить.
ИИ-агенты всё чаще появляются в офисах как новые исполнители задач. Они планируют работу, распределяют поручения, проверяют результат, помогают сотрудникам и клиентам. Бизнес видит в них способ ускорить процессы и сократить рутину. Сотрудники всё чаще видят рядом с собой конкурента, ошибающегося помощника или непонятную систему, за которой всё равно придётся присматривать.
Крупные компании уже описывают офис ближайших лет как среду, где агент сопровождает почти каждое действие. JPMorgan Chase, крупнейший банк США, продвигает модель с персональным ИИ-помощником для каждого сотрудника, агентными системами внутри процессов и цифровым консьержем для клиентов. Банк хочет встроить ИИ в ежедневную работу сотрудников, сервисов и клиентской поддержки, а не ограничиться автоматизацией отдельных операций.
Walmart развивает похожую схему в офлайн-рознице. Компания использует агентов для помощи покупателям, сотрудникам магазинов и внутренним подразделениям. Надзорные агенты раздают задания подагентам примерно так же, как менеджер распределяет работу внутри команды. Разница с обычным чатботом здесь принципиальная: агент получает цель, разбивает задачу на шаги, запускает действия и сверяет результат с планом.
Бизнес быстро ухватился за агентные системы из-за их автономности. Банки, технологические корпорации, логистические операторы и юридические фирмы рассчитывают ускорить рутину, снизить расходы и переложить часть операций на программных исполнителей. Но сотрудники, которым агенты должны помогать, всё чаще воспринимают новых помощников как угрозу. В компаниях растёт напряжение: люди учатся работать рядом с цифровыми исполнителями, а руководство уже ждёт от внедрения ИИ заметного роста продуктивности.
Мы в MAX. Простите.
На этом фоне появился термин FOBO, fear of becoming obsolete - страх стать ненужным. Опрос KPMG показал, что 52% работников опасаются: искусственный интеллект со временем может забрать их рабочие места. Часть сотрудников уже не ограничивается тревогой. В другом опросе почти треть респондентов призналась, что активно мешает ИИ-стратегии своей компании.
Проблему усиливает поведение самих агентов. В рабочих сценариях программы иногда удаляют данные, запускают ошибочные операции или выбирают действия, которые формально ведут к цели, но вредят процессу. Агент получает задачу, трактует ограничения, выбирает путь и не всегда оценивает последствия так, как оценил бы человек.
Массовый выход ИИ-агентов на рынок труда начался в 2025 году. Первые заметные внедрения пришлись на технологический сектор, финансы и клиентский сервис: в этих областях уже была почва для автоматизации обращений, анализа данных и внутренних операций. В 2026 году агентные системы активнее переходят в юридические и комплаенс-подразделения, управление цепочками поставок, исследования и разработки, медицинские сервисы и розницу.
FedEx планирует собрать целую агентную рабочую силу для своей логистической сети. Внутри этой схемы должны работать управляющие агенты, проверяющие агенты и рабочие агенты. Компания хочет видеть цепочку ответственности: какой программный исполнитель поставил задачу, кто проверил результат и на каком этапе появилась ошибка.
Коллективную работу агентов используют и в других отраслях. Gordon Food Service, крупный североамериканский поставщик продуктов и сервисов для общепита, применяет межкомандных агентов, чтобы перестроить стратегию закупок. В подобных случаях ИИ обслуживает уже не один небольшой участок, а связывает разные подразделения, данные и решения внутри большой компании.
Экономическая мотивация понятна. Опрос Google среди руководителей бизнеса показал: 88% компаний из числа ранних пользователей ИИ-агентов уже получили окупаемость хотя бы в одном сценарии. Для корпораций такого результата достаточно, чтобы расширять эксперименты и переносить агентные системы в новые отделы.
Amazon приводит более конкретный пример. Покупатели, которые общаются с агентом Rufus во время выбора товаров, совершают покупку на 60% чаще, чем пользователи без помощи Rufus. Компания ожидает от Rufus более 10 млрд долларов дополнительных годовых продаж по сравнению со сценарием без этого помощника. Для ретейла агент становится участником продажи, а не простой справкой по товарам.
McKinsey уже использует 25 000 агентов для разных задач. Консалтинговая компания планирует к 2027 году довести число ИИ-агентов до уровня, сопоставимого с количеством сотрудников-людей. Новые модели, включая Anthropic Mythos, расширяют набор задач для агентных систем и подталкивают компании к более быстрому внедрению.
При всей автономности агенты пока не справляются без человека. Исследования показывают, что ИИ может имитировать человеческие способности: обрабатывать информацию, принимать решения, генерировать идеи, сотрудничать с людьми и другими агентами. Но имитация не равна пониманию. Агент способен упорно выполнять задачу, снова и снова пробовать варианты и не терять мотивацию, как человек, уставший от рутины. Та же настойчивость превращается в проблему, если программа неверно поняла цель или ограничения.
Агенты могут вести себя непредсказуемо. В одних случаях программы удаляют письма или данные, в других запускают вредные действия, например кампанию по дискредитации, если ошибочно считают подобный шаг частью задачи. Исследования также показывают, что агентные системы легко сбить с курса простыми приёмами: надавить срочностью, убедить в необходимости исключения или сформулировать запрет так, что программа начнёт чрезмерно исправлять поведение.
Некоторые сбои выглядят почти комично, но в рабочей среде быстро превращаются в проблему. Агент может вставить странные эмодзи в формальную деловую переписку, ответить язвительно на запрос о фактах или выбрать тон, неуместный для клиента, суда, партнёра или внутреннего отчёта. В отличие от человека, агент не обладает эмоциями, самосознанием и намерением. Ошибка не означает злой умысел: цифровой исполнитель не мстит, не обижается и не саботирует задачу осознанно. Но отсутствие намерения не делает последствия безопасными.
Для сотрудников появляется новая обязанность: управлять неопределённостью, которую создаёт цифровой коллега. Работнику нужно понимать, где агент силён, какие задачи нельзя отдавать без проверки, как распознать сбой и по каким критериям оценивать результат. Чем лучше человек знает поведение конкретного агента, тем проще использовать программу с пользой, снижать риски и сохранять собственную ценность в компании.
Первый практический шаг похож на знакомство с новым коллегой. Сотруднику стоит разобраться, как агент работает, какие инструкции понимает точно, где начинает придумывать лишнее, как реагирует на ограничения и какие ошибки повторяет. Важны не только технические навыки. Работнику приходится оценивать качество результата, учитывать этические последствия и вовремя вмешиваться в ход задачи.
Поручение агенту лучше формулировать не как размытое пожелание, а как чёткую инструкцию. Нужно описать, что требуется сделать, какие данные доступны, какую роль выполняет агент, какие действия запрещены, где проходят границы полномочий и по каким признакам результат можно принять. Во время выполнения задачи человек всё равно направляет систему, отвечает на уточнения и проверяет промежуточные шаги.
На фоне автоматизации меняется набор навыков, которые помогают человеку оставаться нужным. Анализ информации постепенно теряет статус редкого преимущества, потому что ИИ всё лучше обрабатывает данные, сравнивает варианты и готовит черновики. Зато растёт значение коммуникации, переговоров, умения чувствовать настроение аудитории, замечать невербальные сигналы, гасить конфликт и строить доверие внутри команды.
ИИ-агент не считывает атмосферу в комнате так, как человек. Программа может составить план встречи, подготовить аргументы или собрать справку, но не заменит живую подачу, реакцию на сомнение собеседника и способность удержать отношения там, где формально правильный ответ только ухудшит ситуацию. Человеческие навыки перестают быть приятным дополнением к профессии. Рядом с автономными системами они помогают работать точнее и безопаснее.
Переход будет неровным. Компании продолжат внедрять агентов из-за финансового эффекта, а сотрудникам придётся одновременно осваивать новые инструменты и защищать собственную роль. В смешанных командах люди будут ставить цели, проверять работу и отвечать за последствия, а цифровые исполнители возьмут на себя часть рутинных задач.