論文の概要: Agent Environment Cycle Games
- arxiv url: http://arxiv.org/abs/2009.13051v3
- Date: Sat, 1 May 2021 14:24:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 20:48:38.119705
- Title: Agent Environment Cycle Games
- Title(参考訳): エージェント環境サイクルゲーム
- Authors: J K Terry, Nathaniel Grammel, Benjamin Black, Ananth Hari, Caroline
Horsch, Luis Santos
- Abstract要約: 部分的に観察可能なゲーム(POSG)は、マルチエージェント強化学習(MARL)で使用されるゲームの最も一般的で一般的なモデルである。
POSGモデルは概念的にはソフトウェアMARL環境に不適合であり、このミスマッチが重大な予期せぬ行動を引き起こした文献からケーススタディを提供する。
- 参考スコア(独自算出の注目度): 0.36700088931938835
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Partially Observable Stochastic Games (POSGs) are the most general and common
model of games used in Multi-Agent Reinforcement Learning (MARL). We argue that
the POSG model is conceptually ill suited to software MARL environments, and
offer case studies from the literature where this mismatch has led to severely
unexpected behavior. In response to this, we introduce the Agent Environment
Cycle Games (AEC Games) model, which is more representative of software
implementation. We then prove it's as an equivalent model to POSGs. The AEC
games model is also uniquely useful in that it can elegantly represent both all
forms of MARL environments, whereas for example POSGs cannot elegantly
represent strictly turn based games like chess.
- Abstract(参考訳): POSG(Partially Observable Stochastic Games)は、マルチエージェント強化学習(MARL)において最も一般的で一般的なゲームモデルである。
POSGモデルは概念的にはソフトウェアMARL環境に不適合であり、このミスマッチが重大な予期せぬ行動を引き起こした文献からケーススタディを提供する。
これに対応するために,我々は,よりソフトウェア実装を代表するエージェント環境サイクルゲーム(AEC Games)モデルを導入する。
そして、POSGと同等のモデルであることを証明します。
AECゲームモデルは、MARL環境の全ての形態をエレガントに表現できるのに対し、POSGはチェスのような厳密なターンベースゲームを表現することができないという点でも一意的に有用である。
関連論文リスト
- Understanding Model Selection For Learning In Strategic Environments [5.634574808559901]
モデルが持つデータ量が多ければ多いほど、パフォーマンスが向上します。
本稿では,アクションゲームにおけるアクションセットとして,エージェントがさまざまなモデルクラスを選択しようとする新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2024-02-12T11:41:42Z) - Promptable Game Models: Text-Guided Game Simulation via Masked Diffusion
Models [68.85478477006178]
ニューラルビデオゲームシミュレータのためのPGM(Promptable Game Model)を提案する。
ユーザーは高レベルのアクションシーケンスと低レベルのアクションシーケンスでゲームを実行することができる。
私たちのPGMは、エージェントの目標をプロンプトの形で指定することで、ディレクターのモードをアンロックします。
提案手法は,既存のニューラルビデオゲームシミュレータのレンダリング品質を著しく上回り,現在の最先端の能力を超えたアプリケーションをアンロックする。
論文 参考訳(メタデータ) (2023-03-23T17:43:17Z) - Off-Beat Multi-Agent Reinforcement Learning [62.833358249873704]
オフビート動作が一般的環境におけるモデルフリーマルチエージェント強化学習(MARL)について検討した。
モデルレスMARLアルゴリズムのための新しいエピソードメモリLeGEMを提案する。
我々は,Stag-Hunter Game,Quarry Game,Afforestation Game,StarCraft IIマイクロマネジメントタスクなど,オフビートアクションを伴うさまざまなマルチエージェントシナリオ上でLeGEMを評価する。
論文 参考訳(メタデータ) (2022-05-27T02:21:04Z) - Global Convergence of Multi-Agent Policy Gradient in Markov Potential
Games [33.36015509903024]
マルコフポテンシャルゲーム(MPG)の新たな定義を提案する。
MPGは、複雑なステートフルなマルチエージェント調整をキャプチャする以前の試みを一般化する。
我々は,MPGが決定論的ナッシュポリシーの存在など,標準的な望ましい特性を示すことを示す。
論文 参考訳(メタデータ) (2021-06-03T16:17:46Z) - Equilibrium Refinements for Multi-Agent Influence Diagrams: Theory and
Practice [62.58588499193303]
マルチエージェント・インフルエンス・ダイアグラム(MAID)はグラフィカル・モデルの一般的な形式であり、特定のクラスのゲームに対して、従来の拡張形式ゲーム(EFG)表現よりも重要な複雑さと説明可能性の利点が示されている。
我々は、MAIDサブゲームの概念を導入し、サブゲームパーフェクトとハンドパーフェクトの均衡改善を導入することで、MAIDに関する以前の研究を拡張した。
論文 参考訳(メタデータ) (2021-02-09T18:20:50Z) - Deep Policy Networks for NPC Behaviors that Adapt to Changing Design
Parameters in Roguelike Games [137.86426963572214]
例えばRoguelikesのようなターンベースの戦略ゲームは、Deep Reinforcement Learning(DRL)にユニークな課題を提示する。
複雑なカテゴリ状態空間をより適切に処理し、設計決定によって強制的に再訓練する必要性を緩和する2つのネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-12-07T08:47:25Z) - PettingZoo: Gym for Multi-Agent Reinforcement Learning [1.766396559314054]
PettingZooは、汎用的でエレガントなPython APIを備えた、多様なマルチエージェント環境のライブラリである。
PettingZooは、マルチエージェント強化学習における研究の加速を目的として開発された。
我々は、MARL環境における主要な問題に関するケーススタディを通じて、人気のあるゲームモデルは、MARLで一般的に使用されるゲームのコンセプトモデルが貧弱であると主張している。
論文 参考訳(メタデータ) (2020-09-30T06:42:09Z) - Non-cooperative Multi-agent Systems with Exploring Agents [10.736626320566707]
マルコフゲームを用いたマルチエージェント動作の規範モデルを開発した。
エージェントが探索するが、最適戦略に近い」モデルに焦点を当てる。
論文 参考訳(メタデータ) (2020-05-25T19:34:29Z) - Learning to Simulate Dynamic Environments with GameGAN [109.25308647431952]
本稿では,エージェントが環境と対話するのを見ることでシミュレーターを学習することを目的とする。
ゲームGANは,学習中にスクリーンプレイやキーボード操作を取り入れることで,所望のゲームを視覚的に模倣することを学習する生成モデルである。
論文 参考訳(メタデータ) (2020-05-25T14:10:17Z) - Model-Based Reinforcement Learning for Atari [89.3039240303797]
エージェントがモデルフリーの手法よりも少ないインタラクションでAtariゲームを解くことができることを示す。
本実験は,エージェントと環境間の100kの相互作用の少ないデータ構造における,AtariゲームにおけるSimPLeの評価である。
論文 参考訳(メタデータ) (2019-03-01T15:40:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。