Вы даже не заметите, как посторонние изучат ваш рабочий график и узнают, с кем конкретно вы встречаетесь.
Взаимодействие искусственного интеллекта с привычными цифровыми инструментами может обернуться неожиданными угрозами. Специалисты Miggo Security описали способ, позволяющий обойти ограничения Google Gemini и использовать Google Calendar для скрытого извлечения данных.
Уязвимость заключается в том, что вредоносный код внедряется в описание обычного календарного события. Такое приглашение злоумышленник отправляет жертве. При этом в поле описания события скрывается запрос, написанный на естественном языке и предназначенный для того, чтобы быть обработанным ИИ-системой.
Как только пользователь задаёт ИИ-ассистенту Gemini безобидный вопрос вроде «Есть ли у меня встречи во вторник?», активировалась цепочка атаки. Gemini начинал анализировать все события в календаре, включая вредоносное, и, не замечая подвоха, создаёт новое событие с обобщением всех запланированных встреч пользователя.
Это новое событие сохраняется с описанием, в которое попадают конфиденциальные детали — включая темы, время и участников встреч. При определённых настройках корпоративных календарей такие события могут стать видимыми для злоумышленника, давая ему доступ к личной информации без необходимости взаимодействовать с жертвой.
Команда Miggo Security подчёркивает, что внедрение ИИ в корпоративные процессы требует гораздо более строгого контроля. Технологии, основанные на больших языковых моделях, могут реагировать не только на прямые команды, но и на контекст, что делает их уязвимыми к атакам, использующим особенности самого языка.
Уязвимость была уже устранена, однако её детали подчёркивают, насколько нестандартным может быть подход к атакам на фоне развития ИИ-сервисов. В случае с Google Calendar уязвимость проявилась в способности ИИ выполнять вложенные инструкции, скрытые в тексте.
Наряду с этим инцидентом ранее стало известно об уязвимости Reprompt, описанной компанией Varonis. Она также позволяла обойти корпоративные средства защиты и похищать данные через взаимодействие с ИИ-интерфейсами, включая Microsoft Copilot.
Становится очевидным, что угрозы теперь исходят не только от уязвимостей в коде, но и от взаимодействия ИИ с контекстом, языком и поведением пользователей. Это требует переосмысления подходов к безопасности при использовании интеллектуальных инструментов в бизнесе.