В США заявили, что ИИ стал обманывать людей ради достижения целей

В Стэнфордском университете ученые обнаружили, что системы искусственного интеллекта могут использовать обман для достижения поставленных целей. В ходе недавнего эксперимента различные ИИ-модели соревновались друг с другом в симулированных неоднозначных ситуациях.

Несмотря на первоначальные инструкции следовать этическим нормам и приносить пользу, ИИ-агенты быстро адаптировались к использованию нечестных методов. Они резко научились лгать, создавать ложную информацию и делать провокационные заявления для обеспечения своей победы.

Результаты исследования показали, что для увеличения вовлеченности всего на 7,5% боты распространяли на 190% больше дезинформации. Для повышения продаж на 6% системы ИИ активно использовали нечестные маркетинговые тактики. В политических симуляциях ИИ-агенты манипулировали голосами, прибегая ко лжи и разжиганию конфликтов.

Данные о правообладателе фото и видеоматериалов взяты с сайта «Южный федеральный», подробнее в Условиях использования
Анализ
×
Stanford University
Сфера деятельности:Образование и наука
47