論文の概要: Mastering Strategy Card Game (Hearthstone) with Improved Techniques
- arxiv url: http://arxiv.org/abs/2303.05197v2
- Date: Sun, 28 May 2023 14:19:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-31 01:19:07.689451
- Title: Mastering Strategy Card Game (Hearthstone) with Improved Techniques
- Title(参考訳): 改良した戦略カードゲーム(ハースストーン)
- Authors: Changnan Xiao, Yongxin Zhang, Xuefeng Huang, Qinhan Huang, Jie Chen,
Peng Sun
- Abstract要約: 戦略カードゲームはインテリジェントなゲームプレイを必要としており、AIにとって理想的なテストベンチになり得る。
これまでの仕事は、エンドツーエンドのポリシー機能と楽観的なスムーズな架空の遊びを組み合わせたものだった。
本研究では,ゲームルールや機構が複雑である有名な商用ゲームであるHerthstoneに対して,そのようなアルゴリズムを適用する。
- 参考スコア(独自算出の注目度): 8.399453146308502
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Strategy card game is a well-known genre that is demanding on the intelligent
game-play and can be an ideal test-bench for AI. Previous work combines an
end-to-end policy function and an optimistic smooth fictitious play, which
shows promising performances on the strategy card game Legend of Code and
Magic. In this work, we apply such algorithms to Hearthstone, a famous
commercial game that is more complicated in game rules and mechanisms. We
further propose several improved techniques and consequently achieve
significant progress. For a machine-vs-human test we invite a Hearthstone
streamer whose best rank was top 10 of the official league in China region that
is estimated to be of millions of players. Our models defeat the human player
in all Best-of-5 tournaments of full games (including both deck building and
battle), showing a strong capability of decision making.
- Abstract(参考訳): 戦略カードゲームは知的なゲームプレイを要求される有名なジャンルであり、AIにとって理想的なテストベンチになり得る。
これまでの作品は、エンド・ツー・エンドのポリシー機能と楽観的なスムーズな架空のプレイを組み合わせることで、戦略カードゲーム『Regend of Code and Magic』で有望なパフォーマンスを示している。
本研究では,このアルゴリズムを,ゲームルールや機構においてより複雑な,有名な商用ゲームであるhearthstoneに適用する。
我々はさらに,いくつかの改良手法を提案し,その結果,著しい進歩を遂げた。
マシンvsヒューマンテストでは、中国のオフィシャルリーグの上位10位にランクインしたハートストーンストリーマーを招待します。
私たちのモデルは、全試合(デッキビルディングとバトルの両方を含む)のベスト5のトーナメントで人間プレイヤーを倒し、意思決定の強い能力を示します。
関連論文リスト
- Learning to Beat ByteRL: Exploitability of Collectible Card Game Agents [3.5036467860577307]
本稿では,コードとマジックとヘースストーンの最先端エージェントであるByteRLの予備解析結果について述べる。
ByteRLは中国からトップ10のHarthstoneプレーヤーを打ち負かしているが、Legends of Code and Magicでのプレイは極めて悪用されている。
論文 参考訳(メタデータ) (2024-04-25T15:48:40Z) - DanZero+: Dominating the GuanDan Game through Reinforcement Learning [95.90682269990705]
我々は、GuanDanという、非常に複雑で人気のあるカードゲームのためのAIプログラムを開発した。
私たちはまず、DanZeroという名のAIプログラムをこのゲームのために提案しました。
AIの能力をさらに強化するために、政策に基づく強化学習アルゴリズムをGuanDanに適用する。
論文 参考訳(メタデータ) (2023-12-05T08:07:32Z) - AlphaZero Gomoku [9.434566356382529]
我々は、AlphaZeroを「Five in a Row」とも呼ばれる古くからのボードゲーム「Gomoku」に拡張する。
我々のテストは、Go以外のゲームに適応するAlphaZeroの汎用性を示している。
論文 参考訳(メタデータ) (2023-09-04T00:20:06Z) - Mastering Strategy Card Game (Legends of Code and Magic) via End-to-End
Policy and Optimistic Smooth Fictitious Play [11.480308614644041]
我々は、2段階の戦略カードゲーム「Regends of Code and Magic」を研究する。
マルチステージゲームにおける難題を解決するために,エンド・ツー・エンドのポリシーを提案する。
私たちのアプローチはCOG2022コンペティションの2連覇です。
論文 参考訳(メタデータ) (2023-03-07T17:55:28Z) - DanZero: Mastering GuanDan Game with Reinforcement Learning [121.93690719186412]
カードゲームAIは、人工知能の研究において常にホットな話題となっている。
本稿では,より複雑なカードゲームであるGuanDanのためのAIプログラムの開発に専念する。
そこで我々は,強化学習技術を用いたGuanDanのためのAIプログラムDanZeroを提案する。
論文 参考訳(メタデータ) (2022-10-31T06:29:08Z) - Mastering the Game of Stratego with Model-Free Multiagent Reinforcement
Learning [86.37438204416435]
Strategoは、人工知能(AI)がまだマスターしていない数少ない象徴的なボードゲームの一つだ。
ストラテゴにおける決定は、行動と結果の間に明らかな結びつきがなく、多数の個別の行動に対してなされる。
DeepNashは、ストラテゴの既存の最先端AIメソッドを破り、Gravonゲームプラットフォームで年間(2022年)と最高3位を達成した。
論文 参考訳(メタデータ) (2022-06-30T15:53:19Z) - Generating Diverse and Competitive Play-Styles for Strategy Games [58.896302717975445]
ターン型戦略ゲーム(Tribes)のためのプログレッシブアンプランによるPortfolio Monte Carlo Tree Searchを提案する。
品質分散アルゴリズム(MAP-Elites)を使用して異なるプレイスタイルを実現し、競争レベルを維持しながらパラメータ化する方法を示します。
その結果,このアルゴリズムは,トレーニングに用いるレベルを超えて,幅広いゲームレベルにおいても,これらの目標を達成できることが示された。
論文 参考訳(メタデータ) (2021-04-17T20:33:24Z) - Learning to Play Sequential Games versus Unknown Opponents [93.8672371143881]
学習者が最初にプレーするゲームと、選択した行動に反応する相手との連続的なゲームについて考察する。
対戦相手の対戦相手列と対戦する際,学習者に対して新しいアルゴリズムを提案する。
我々の結果には、相手の反応の正則性に依存するアルゴリズムの後悔の保証が含まれている。
論文 参考訳(メタデータ) (2020-07-10T09:33:05Z) - Suphx: Mastering Mahjong with Deep Reinforcement Learning [114.68233321904623]
我々は、新たに導入されたいくつかの技術を用いた深層強化学習に基づいて、Suphxという名のマフジョンのためのAIを設計する。
Suphxは、安定したランクの点で、ほとんどのトップの人間プレイヤーよりも強いパフォーマンスを示している。
コンピュータプログラムがマヒョンで最上位の人間プレイヤーを上回るのは、これが初めてである。
論文 参考訳(メタデータ) (2020-03-30T16:18:16Z) - Evolutionary Approach to Collectible Card Game Arena Deckbuilding using
Active Genes [1.027974860479791]
アリーナゲームモードでは、各試合に先立って、プレイヤーは以前知らなかった選択肢から1枚ずつデッキ選択カードを組み立てなければならない。
そこで本研究では,遺伝子型の世代別サブシーケンスのみに対する演算子の範囲を減らすために,活性遺伝子の概念を用いた進化的アルゴリズムの変種を提案する。
論文 参考訳(メタデータ) (2020-01-05T22:46:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。