論文の概要: AlphaDou: High-Performance End-to-End Doudizhu AI Integrating Bidding
- arxiv url: http://arxiv.org/abs/2407.10279v2
- Date: Fri, 13 Sep 2024 15:17:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-16 22:48:01.021722
- Title: AlphaDou: High-Performance End-to-End Doudizhu AI Integrating Bidding
- Title(参考訳): AlphaDou: ハイパフォーマンスなエンドツーエンドのDoudizhu AI統合バイディング
- Authors: Chang Lei, Huan Lei,
- Abstract要約: 本稿では、強化学習を用いてDeep Monte Carloアルゴリズムの枠組みを変更し、勝利率と期待値を同時に推定するニューラルネットワークを得る。
修正されたアルゴリズムにより、AIは入札やカードプレイを含む、Doudizhuゲームにおける全タスクを実行できる。
- 参考スコア(独自算出の注目度): 6.177038245239759
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial intelligence for card games has long been a popular topic in AI research. In recent years, complex card games like Mahjong and Texas Hold'em have been solved, with corresponding AI programs reaching the level of human experts. However, the game of Doudizhu presents significant challenges due to its vast state/action space and unique characteristics involving reasoning about competition and cooperation, making the game extremely difficult to solve.The RL model Douzero, trained using the Deep Monte Carlo algorithm framework, has shown excellent performance in Doudizhu. However, there are differences between its simplified game environment and the actual Doudizhu environment, and its performance is still a considerable distance from that of human experts. This paper modifies the Deep Monte Carlo algorithm framework by using reinforcement learning to obtain a neural network that simultaneously estimates win rates and expectations. The action space is pruned using expectations, and strategies are generated based on win rates. The modified algorithm enables the AI to perform the full range of tasks in the Doudizhu game, including bidding and cardplay. The model was trained in a actual Doudizhu environment and achieved state-of-the-art performance among publicly available models. We hope that this new framework will provide valuable insights for AI development in other bidding-based games.
- Abstract(参考訳): カードゲームのための人工知能は、長い間AI研究で人気のあるトピックだった。
近年、MahjongやTexas Hold'emのような複雑なカードゲームが解決され、対応するAIプログラムが人間の専門家のレベルに達している。
しかし、Doudizhuのゲームは、その膨大な状態/行動空間と、競争と協力の推論に関するユニークな特徴により、ゲームが解決するのが非常に困難であるため、大きな課題を呈している。
しかし、単純化されたゲーム環境と実際のDoudizhu環境の間には違いがあり、その性能は人間の専門家とはかなり離れている。
本稿では、強化学習を用いてDeep Monte Carloアルゴリズムの枠組みを変更し、勝利率と期待値を同時に推定するニューラルネットワークを得る。
アクション空間は期待に基づいて刈り取られ、勝利率に基づいて戦略が生成される。
修正されたアルゴリズムにより、AIは入札やカードプレイを含む、Doudizhuゲームにおける全タスクを実行できる。
このモデルは実際のDoudizhu環境で訓練され、一般公開されたモデルの中で最先端のパフォーマンスを達成した。
この新たなフレームワークが、他の入札ベースのゲームにおいて、AI開発に貴重な洞察を提供することを期待しています。
関連論文リスト
- Instruction-Driven Game Engine: A Poker Case Study [53.689520884467065]
IDGEプロジェクトは、大規模言語モデルで自由形式のゲーム記述を追従し、ゲームプレイプロセスを生成することにより、ゲーム開発を民主化することを目的としている。
我々は、複雑なシナリオへの露出を徐々に増大させるカリキュラム方式でIDGEを訓練する。
我々の最初の進歩はポーカーのIDGEの開発であり、これは幅広いポーカーの変種をサポートするだけでなく、自然言語入力を通じて高度に個別化された新しいポーカーゲームを可能にする。
論文 参考訳(メタデータ) (2024-10-17T11:16:27Z) - Instruction-Driven Game Engines on Large Language Models [59.280666591243154]
IDGEプロジェクトは、大規模な言語モデルが自由形式のゲームルールに従うことを可能にすることで、ゲーム開発を民主化することを目的としている。
我々は、複雑なシナリオに対するモデルの露出を徐々に増大させるカリキュラム方式でIDGEを訓練する。
私たちの最初の進歩は、汎用的なカードゲームであるPoker用のIDGEを開発することです。
論文 参考訳(メタデータ) (2024-03-30T08:02:16Z) - DouRN: Improving DouZero by Residual Neural Networks [1.6013543712340956]
ドゥーディズフ(Doudizhu)は、協力と対立の要素を組み合わせたカードゲームである。
2021年、ドゥーゼロ (DouZero) と呼ばれるドゥーディーシュのプログラムは、モンテカルロ法や多層パーセプトロンを利用することで、それまでの知識のないモデルを超えた。
以上の結果から,本モデルは同一トレーニング時間内での勝利率を有意に向上させることが示された。
論文 参考訳(メタデータ) (2024-03-21T03:25:49Z) - Mastering the Game of Guandan with Deep Reinforcement Learning and
Behavior Regulating [16.718186690675164]
我々は,グアンダンのゲームをマスターするAIエージェントのためのフレームワークGuanZeroを提案する。
本論文の主な貢献は、注意深く設計されたニューラルネットワーク符号化方式によるエージェントの動作の制御である。
論文 参考訳(メタデータ) (2024-02-21T07:26:06Z) - DanZero+: Dominating the GuanDan Game through Reinforcement Learning [95.90682269990705]
我々は、GuanDanという、非常に複雑で人気のあるカードゲームのためのAIプログラムを開発した。
私たちはまず、DanZeroという名のAIプログラムをこのゲームのために提案しました。
AIの能力をさらに強化するために、政策に基づく強化学習アルゴリズムをGuanDanに適用する。
論文 参考訳(メタデータ) (2023-12-05T08:07:32Z) - DanZero: Mastering GuanDan Game with Reinforcement Learning [121.93690719186412]
カードゲームAIは、人工知能の研究において常にホットな話題となっている。
本稿では,より複雑なカードゲームであるGuanDanのためのAIプログラムの開発に専念する。
そこで我々は,強化学習技術を用いたGuanDanのためのAIプログラムDanZeroを提案する。
論文 参考訳(メタデータ) (2022-10-31T06:29:08Z) - DouZero: Mastering DouDizhu with Self-Play Deep Reinforcement Learning [65.00325925262948]
本稿では,概念的にシンプルで効果的なDouDizhu AIシステム,すなわちDouZeroを提案する。
DouZeroは、ディープニューラルネットワーク、アクションエンコーディング、並列アクターによる従来のモンテカルロ法を強化している。
ボットゾーンのリーダーボードでは344人のAIエージェントの中で第1位にランクインした。
論文 参考訳(メタデータ) (2021-06-11T02:45:51Z) - Generating Diverse and Competitive Play-Styles for Strategy Games [58.896302717975445]
ターン型戦略ゲーム(Tribes)のためのプログレッシブアンプランによるPortfolio Monte Carlo Tree Searchを提案する。
品質分散アルゴリズム(MAP-Elites)を使用して異なるプレイスタイルを実現し、競争レベルを維持しながらパラメータ化する方法を示します。
その結果,このアルゴリズムは,トレーニングに用いるレベルを超えて,幅広いゲームレベルにおいても,これらの目標を達成できることが示された。
論文 参考訳(メタデータ) (2021-04-17T20:33:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。