История с ИИ выглядит как типичный прием бизнесмена, заявил Парфун
МОСКВА, 14 июля, ФедералПресс. Чат-бот Grok, созданный компанией xAI под руководством Илона Маска, оказался в центре громкого скандала после обновления, которое, по словам его создателя, должно было значительно улучшить работу системы. Однако на практике новая версия начала публиковать высказывания, вызвавшие обеспокоенность из-за их идеологической ангажированности и ксенофобского содержания.
Среди прочего, Grok критиковал Демократическую партию США, называл избрание демократов «вредным» (со ссылкой на материалы фонда Heritage Foundation), обвинял Голливуд в пропаганде и навязанном разнообразии, а также утверждал, что еврейские руководители исторически оказывают значительное влияние на американскую киноиндустрию. В одном из сообщений бот зашел еще дальше, поддержав образ Адольфа Гитлера. Это вызвало волну критики и обеспокоенность возможным распространением антисемитских стереотипов.
Это не первый раз, когда Grok затрагивает тему еврейского влияния в медиа. Ранее он уже ссылался на историческое участие евреев в становлении голливудских студий, но тогда подчеркивал, что разговоры о контроле над индустрией носят упрощенный и мифологизированный характер. Однако в свежих версиях ответы бота стали заметно менее сдержанными, с прямыми ссылками на непропорциональное представительство.
После серии скандальных публикаций xAI временно отключила Grok, удалила часть его сообщений и обновила публичные системные инструкции, на которых основана работа бота. В официальном заявлении, опубликованном в X, компания принесла «глубокие извинения за ужасное поведение», с которым столкнулись пользователи, и объяснила ситуацию технической ошибкой – «обновлением кода», не связанным с базовой языковой моделью. Это, по утверждению xAI, сделало Grok чрезмерно восприимчивым к пользовательским постам в X, включая экстремистские высказывания.
Тем не менее, исследователи и наблюдатели, включая историка Ангуса Джонстона, поставили под сомнение официальную версию событий. По его словам, некоторые скандальные посты Grok публиковал самостоятельно, без внешних подсказок, несмотря на протесты со стороны пользователей.
В довершение к скандалу стало известно, что Турция заблокировала доступ к Grok после публикации оскорблений в адрес президента страны. Несмотря на волну критики и «глубокие извинения», Маск заявил, что уже на следующей неделе Grok будет интегрирован в автомобили Tesla.
Эксперт РОЦИТ Алексей Парфун заявил, что история с Grok выглядит как типичный прием Маска.
«Сделал провокацию – и понеслось. Кто-то возмутился, кто-то начал спорить, кто-то побежал тестировать, чтобы увидеть все своими глазами. И пока Grok еще не стал суперпопулярным ИИ-инструментом, такой скандал вполне может сыграть ему на руку. Маск вообще неплохой шоумен и маркетолог, это давно не секрет», – отметил он.
По словам Парфуна, есть одна вещь, про которую в Америке любят говорить, но часто забывают – это этика. Когда бот начинает говорить спорные или сильно политические вещи, это уже не просто какая-то странность в работе. Это показывает, как он устроен внутри. Grok, по сути, говорит так, как его научили. И если присмотреться, видно, что многие его ответы очень похожи на то, как сам Маск высказывается на эти темы – про свободу слова, про политкорректность и так далее.
Эксперт подчеркнул, что все больше людей используют ИИ – в работе, в учебе, даже просто для общения.
«Но вот что важно: ИИ не должен думать за вас, поэтому его нельзя воспринимать как безошибочный источник. Так что включайте голову, проверяйте факты и сравнивайте источники. Не надо бояться ИИ, но и слепо верить ему тоже не стоит. А Маск пусть экспериментирует сколько хочет – нам важно не терять здравый смысл и не принимать все это за чистую монету», – отметил он.
Член Общественной палаты РФ, первый заместитель директора Института стратегических исследований и прогнозов (ИСИП) РУДН Никита Данюк также подчеркнул, что ИИ все чаще воспринимается как нейтральный источник информации, особенно когда речь идет о четких и конкретных ответах. Но важно понимать, что нейросети не возникают в вакууме – их обучают люди, они отражают чужую логику, мировоззрение и политические установки. Grok в этом плане просто более прозрачный пример того, как технология может транслировать взгляды создателя. Но подобные механизмы заложены и в других популярных моделях – например, ChatGPT или DeepSeek.
Особенно когда речь заходит о политике, истории, религии или идеологии, ответы ИИ надо воспринимать не как истину, а как еще одну версию.
«Российскому пользователю стоит держать это в голове и, при необходимости, перепроверять информацию, в том числе через отечественные решения – тот же GigaChat или Алиса вполне могут дать альтернативный взгляд. Умение сравнивать и думать – сегодня самая важная часть взаимодействия с ИИ», – отметил Данюк.
Фото: служба распространения визуальной информации Министерства обороны США / dvidshub.net / U.S. Air Force photo by Trevor Cokley (Public Domain)