Нейросеть Pluribus обыграла в покер чемпионов мира

@TechFusion
Pluribus

Специалисты Университета Карнеги — Мелона разработали искусственный интеллект Pluribus, который смог обыграть сразу пятерых чемпионов мира в игре в покер

Нейросети умеют играть не хуже людей. Это уже доказали инженеры DeepMind, которые создали самообучающуюся нейросеть AlphaGo. Она «с нуля» без участия человека научилась играть и обыгрывать любых противников, в том числе и чемпионов Фаня Хуэя и Ли Седоля. Но в покере не применимы логические приемы — это игра со скрытой информацией, которую и освоил искусственный интеллект Pluribus.

Чтобы научить нейросеть играть в покер, ученые использовали трехмодульный метод обучения. В первом модуле искусственный интеллект создавал упрощенную модель игры. На следующем этапе алгоритм обучали прорабатывать стратегию игры с учетом как первых раундов, так и завершающих. На заключительном этапе искусственный интеллект проводил анализ ошибок и учился играть с противниками.

В итоге нейросети удалось обыграть четверых чемпионов мира по покеру прошлых лет и действующего чемпиона Даррена Элиаса. Подробно механизм машинного обучения, итоги тестовых игр и возможности прикладного применения метода описаны авторами в статье Superhuman AI for multiplayer poker в журнале Science.

Иллюстрация на обложке: pixabay.com
Данные о правообладателе фото и видеоматериалов взяты с сайта «TechFusion», подробнее в Условиях использования