論文の概要: Learning to Beat ByteRL: Exploitability of Collectible Card Game Agents
- arxiv url: http://arxiv.org/abs/2404.16689v1
- Date: Thu, 25 Apr 2024 15:48:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-26 13:10:51.034991
- Title: Learning to Beat ByteRL: Exploitability of Collectible Card Game Agents
- Title(参考訳): ByteRLに勝つための学習: カードゲームエージェントの爆発性
- Authors: Radovan Haluska, Martin Schmid,
- Abstract要約: 本稿では,コードとマジックとヘースストーンの最先端エージェントであるByteRLの予備解析結果について述べる。
ByteRLは中国からトップ10のHarthstoneプレーヤーを打ち負かしているが、Legends of Code and Magicでのプレイは極めて悪用されている。
- 参考スコア(独自算出の注目度): 3.5036467860577307
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While Poker, as a family of games, has been studied extensively in the last decades, collectible card games have seen relatively little attention. Only recently have we seen an agent that can compete with professional human players in Hearthstone, one of the most popular collectible card games. Although artificial agents must be able to work with imperfect information in both of these genres, collectible card games pose another set of distinct challenges. Unlike in many poker variants, agents must deal with state space so vast that even enumerating all states consistent with the agent's beliefs is intractable, rendering the current search methods unusable and requiring the agents to opt for other techniques. In this paper, we investigate the strength of such techniques for this class of games. Namely, we present preliminary analysis results of ByteRL, the state-of-the-art agent in Legends of Code and Magic and Hearthstone. Although ByteRL beat a top-10 Hearthstone player from China, we show that its play in Legends of Code and Magic is highly exploitable.
- Abstract(参考訳): ポーカーは過去数十年にわたって広く研究されてきたが、収集可能なカードゲームはあまり注目されていない。
つい最近になって、最も人気のある収集可能なカードゲームの一つであるHarthstoneで、プロの人間プレイヤーと競争できるエージェントが登場した。
人工エージェントはどちらのジャンルでも不完全な情報を扱わなければならないが、収集可能なカードゲームには別の課題がある。
多くのポーカーの変種とは異なり、エージェントは巨大な状態空間を扱う必要があり、エージェントの信念と整合した状態の列挙さえも難解であり、現在の検索メソッドは使用不能であり、エージェントは他のテクニックを選択する必要がある。
本稿では,このクラスのゲームにおいて,そのような手法の強みについて検討する。
すなわち,コードとマジックとヘースストーンの最先端エージェントであるByteRLの予備解析結果を示す。
ByteRLは中国からトップ10のHarthstoneプレーヤーを打ち負かしているが、Legends of Code and Magicでのプレイは極めて悪用されている。
関連論文リスト
- Optimizing Hearthstone Agents using an Evolutionary Algorithm [0.0]
本稿では,カードゲーム『Harthstone』をプレイするエージェントの開発に進化的アルゴリズム(EA)を用いることを提案する。
エージェントは競争力のある共進化的トレーニングアプローチによって自己学習を特徴とする。
提案されたアプローチによって開発されたエージェントの1つは、国際ヘースストーン人工知能(AI)コンペティションにおけるランナーアップ(6%)であった。
論文 参考訳(メタデータ) (2024-10-25T16:49:11Z) - A Survey on Game Theory Optimal Poker [0.0]
現在までに不完全な情報ゲームは解決されていない。
これにより、ポーカーは人工知能研究にとって素晴らしいテストベッドとなる。
本稿では,ポーカーボットの成功にともなう抽象化手法,ベッティングモデル,具体的な戦略について論じる。
論文 参考訳(メタデータ) (2024-01-02T04:19:25Z) - Mastering Strategy Card Game (Hearthstone) with Improved Techniques [8.399453146308502]
戦略カードゲームはインテリジェントなゲームプレイを必要としており、AIにとって理想的なテストベンチになり得る。
これまでの仕事は、エンドツーエンドのポリシー機能と楽観的なスムーズな架空の遊びを組み合わせたものだった。
本研究では,ゲームルールや機構が複雑である有名な商用ゲームであるHerthstoneに対して,そのようなアルゴリズムを適用する。
論文 参考訳(メタデータ) (2023-03-09T11:52:52Z) - Are AlphaZero-like Agents Robust to Adversarial Perturbations? [73.13944217915089]
AlphaZero(AZ)は、ニューラルネットワークベースのGo AIが人間のパフォーマンスを大きく上回ることを示した。
私たちは、Go AIが驚くほど間違った行動を起こさせる可能性のある、敵対的な状態が存在するかどうか尋ねる。
我々は、Go AIに対する最初の敵攻撃を開発し、探索空間を戦略的に減らし、効率よく敵の状態を探索する。
論文 参考訳(メタデータ) (2022-11-07T18:43:25Z) - Mastering the Game of No-Press Diplomacy via Human-Regularized
Reinforcement Learning and Planning [95.78031053296513]
ノープレス外交(No-press Diplomacy)は、協力と競争の両方を含む複雑な戦略ゲームである。
我々は、人間の模倣学習ポリシーに対する報酬最大化ポリシーを規則化する、DiL-piKLと呼ばれる計画アルゴリズムを導入する。
RL-DiL-piKLと呼ばれる自己再生強化学習アルゴリズムに拡張可能であることを示す。
論文 参考訳(メタデータ) (2022-10-11T14:47:35Z) - A Technique to Create Weaker Abstract Board Game Agents via
Reinforcement Learning [0.0]
ボードゲームには、少なくとも1人のプレーヤーがプレーする必要があります。
対戦相手が行方不明になったとき、私たちはAIエージェントを作りました。
この研究では、ボードゲームをする弱いAIエージェントの作り方を説明します。
論文 参考訳(メタデータ) (2022-09-01T20:13:20Z) - Mastering the Game of Stratego with Model-Free Multiagent Reinforcement
Learning [86.37438204416435]
Strategoは、人工知能(AI)がまだマスターしていない数少ない象徴的なボードゲームの一つだ。
ストラテゴにおける決定は、行動と結果の間に明らかな結びつきがなく、多数の個別の行動に対してなされる。
DeepNashは、ストラテゴの既存の最先端AIメソッドを破り、Gravonゲームプラットフォームで年間(2022年)と最高3位を達成した。
論文 参考訳(メタデータ) (2022-06-30T15:53:19Z) - Optimisation of MCTS Player for The Lord of the Rings: The Card Game [0.0]
本稿では,モンテカルロツリーサーチ(MCTS)手法を用いて,人気カードゲーム「指輪のロード」の人工プレイヤーを作成する研究について述べる。
論文 参考訳(メタデータ) (2021-09-24T14:42:32Z) - Generating Diverse and Competitive Play-Styles for Strategy Games [58.896302717975445]
ターン型戦略ゲーム(Tribes)のためのプログレッシブアンプランによるPortfolio Monte Carlo Tree Searchを提案する。
品質分散アルゴリズム(MAP-Elites)を使用して異なるプレイスタイルを実現し、競争レベルを維持しながらパラメータ化する方法を示します。
その結果,このアルゴリズムは,トレーニングに用いるレベルを超えて,幅広いゲームレベルにおいても,これらの目標を達成できることが示された。
論文 参考訳(メタデータ) (2021-04-17T20:33:24Z) - Multi-Agent Collaboration via Reward Attribution Decomposition [75.36911959491228]
本稿では,StarCraftのマルチエージェントチャレンジにおいて,最先端のパフォーマンスを実現するコラボレーション型Q-ラーニング(CollaQ)を提案する。
CollaQは様々なStarCraft属性マップで評価され、既存の最先端技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-10-16T17:42:11Z) - Learning from Learners: Adapting Reinforcement Learning Agents to be
Competitive in a Card Game [71.24825724518847]
本稿では,競争力のあるマルチプレイヤーカードゲームの現実的な実装を学習・プレイするために,一般的な強化学習アルゴリズムをどのように適用できるかについて検討する。
本研究は,学習エージェントに対して,エージェントが競争力を持つことの学習方法を評価するための特定のトレーニングと検証ルーチンを提案し,それらが相互の演奏スタイルにどのように適応するかを説明する。
論文 参考訳(メタデータ) (2020-04-08T14:11:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。