
Специалисты Университета Карнеги — Мелона разработали искусственный интеллект Pluribus, который смог обыграть сразу пятерых чемпионов мира в игре в покер
Нейросети умеют играть не хуже людей. Это уже доказали инженеры DeepMind, которые создали самообучающуюся нейросеть AlphaGo. Она «с нуля» без участия человека научилась играть и обыгрывать любых противников, в том числе и чемпионов Фаня Хуэя и Ли Седоля. Но в покере не применимы логические приемы — это игра со скрытой информацией, которую и освоил искусственный интеллект Pluribus.
Чтобы научить нейросеть играть в покер, ученые использовали трехмодульный метод обучения. В первом модуле искусственный интеллект создавал упрощенную модель игры. На следующем этапе алгоритм обучали прорабатывать стратегию игры с учетом как первых раундов, так и завершающих. На заключительном этапе искусственный интеллект проводил анализ ошибок и учился играть с противниками.
В итоге нейросети удалось обыграть четверых чемпионов мира по покеру прошлых лет и действующего чемпиона Даррена Элиаса. Подробно механизм машинного обучения, итоги тестовых игр и возможности прикладного применения метода описаны авторами в статье Superhuman AI for multiplayer poker в журнале Science.