論文の概要: PettingZoo: Gym for Multi-Agent Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2009.14471v7
- Date: Tue, 26 Oct 2021 06:06:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 23:10:30.391274
- Title: PettingZoo: Gym for Multi-Agent Reinforcement Learning
- Title(参考訳): pettingzoo:マルチエージェント強化学習用ジム
- Authors: J. K. Terry, Benjamin Black, Nathaniel Grammel, Mario Jayakumar,
Ananth Hari, Ryan Sullivan, Luis Santos, Rodrigo Perez, Caroline Horsch,
Clemens Dieffendahl, Niall L. Williams, Yashas Lokesh, Praveen Ravi
- Abstract要約: PettingZooは、汎用的でエレガントなPython APIを備えた、多様なマルチエージェント環境のライブラリである。
PettingZooは、マルチエージェント強化学習における研究の加速を目的として開発された。
我々は、MARL環境における主要な問題に関するケーススタディを通じて、人気のあるゲームモデルは、MARLで一般的に使用されるゲームのコンセプトモデルが貧弱であると主張している。
- 参考スコア(独自算出の注目度): 1.766396559314054
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces the PettingZoo library and the accompanying Agent
Environment Cycle ("AEC") games model. PettingZoo is a library of diverse sets
of multi-agent environments with a universal, elegant Python API. PettingZoo
was developed with the goal of accelerating research in Multi-Agent
Reinforcement Learning ("MARL"), by making work more interchangeable,
accessible and reproducible akin to what OpenAI's Gym library did for
single-agent reinforcement learning. PettingZoo's API, while inheriting many
features of Gym, is unique amongst MARL APIs in that it's based around the
novel AEC games model. We argue, in part through case studies on major problems
in popular MARL environments, that the popular game models are poor conceptual
models of games commonly used in MARL and accordingly can promote confusing
bugs that are hard to detect, and that the AEC games model addresses these
problems.
- Abstract(参考訳): 本稿では,PettingZooライブラリと付随するエージェント環境サイクル(AEC)ゲームモデルを紹介する。
PettingZooは、汎用的でエレガントなPython APIを備えた多様なマルチエージェント環境のライブラリである。
pettingzooはマルチエージェント強化学習(marl:multi-agent reinforcement learning)の研究を加速する目的で、openaiのジムライブラリがシングルエージェント強化学習のために行ったことに似た、作業の交換性、アクセス性、再現性の向上を目的として開発された。
PettingZooのAPIは、Gymの多くの機能を継承する一方で、新しいAECゲームモデルに基づいたMARL APIの中でもユニークなものだ。
一般的なmarl環境における主要な問題に関するケーススタディを通じて、人気ゲームモデルはmarlでよく使われるゲームの貧弱な概念モデルであり、それゆえ検出が難しい紛らわしいバグを助長し、aecゲームモデルはこれらの問題に対処することができると論じている。
関連論文リスト
- Evolutionary Machine Learning and Games [2.742755573637173]
この章は、進化が機械学習(ML)の強化に使用されるか、進化を増強するためにMLが使用されるかに基づいて、ゲーム向けに構成する。
完全性については、ゲーム内でMLと進化を別々に使用することについても、簡潔に論じる。
論文 参考訳(メタデータ) (2023-11-20T13:21:39Z) - Accelerate Multi-Agent Reinforcement Learning in Zero-Sum Games with
Subgame Curriculum Learning [65.36326734799587]
ゼロサムゲームのための新しいサブゲームカリキュラム学習フレームワークを提案する。
エージェントを以前に訪れた状態にリセットすることで、適応的な初期状態分布を採用する。
我々は,2乗距離をNE値に近似するサブゲーム選択指標を導出する。
論文 参考訳(メタデータ) (2023-10-07T13:09:37Z) - SequeL: A Continual Learning Library in PyTorch and JAX [50.33956216274694]
SequeLは継続学習のためのライブラリで、PyTorchとJAXフレームワークの両方をサポートする。
それは、正規化ベースのアプローチ、リプレイベースのアプローチ、ハイブリッドアプローチを含む、幅広い連続学習アルゴリズムのための統一インターフェースを提供する。
私たちはSequeLをオープンソースライブラリとしてリリースし、研究者や開発者が自身の目的で簡単にライブラリを実験し拡張することができます。
論文 参考訳(メタデータ) (2023-04-21T10:00:22Z) - Multi-Modal Few-Shot Temporal Action Detection [157.96194484236483]
Few-shot (FS) と Zero-shot (ZS) の学習は、時間的行動検出を新しいクラスに拡張するための2つの異なるアプローチである。
我々は、FS-TADとZS-TADの結婚として考えられるMMFS (Multi-modality few-shot) TAD問題を導入する。
論文 参考訳(メタデータ) (2022-11-27T18:13:05Z) - DIAMBRA Arena: a New Reinforcement Learning Platform for Research and
Experimentation [91.3755431537592]
本研究は、強化学習研究と実験のための新しいプラットフォームであるDIAMBRA Arenaを提示する。
高品質な環境のコレクションが,OpenAI Gym標準に完全に準拠したPython APIを公開している。
これらは、離散的なアクションと観測を生のピクセルと追加の数値で構成したエピソディックなタスクである。
論文 参考訳(メタデータ) (2022-10-19T14:39:10Z) - MARLlib: A Scalable and Efficient Multi-agent Reinforcement Learning
Library [82.77446613763809]
本稿では,マルチエージェントタスクとアルゴリズムの組み合わせを高速に開発するためのライブラリであるMARLlibを紹介する。
MARLlibは、マルチエージェントタスクとアルゴリズムの学習過程を効果的に切り離すことができる。
ライブラリのソースコードはGitHubで公開されている。
論文 参考訳(メタデータ) (2022-10-11T03:11:12Z) - Off-Beat Multi-Agent Reinforcement Learning [62.833358249873704]
オフビート動作が一般的環境におけるモデルフリーマルチエージェント強化学習(MARL)について検討した。
モデルレスMARLアルゴリズムのための新しいエピソードメモリLeGEMを提案する。
我々は,Stag-Hunter Game,Quarry Game,Afforestation Game,StarCraft IIマイクロマネジメントタスクなど,オフビートアクションを伴うさまざまなマルチエージェントシナリオ上でLeGEMを評価する。
論文 参考訳(メタデータ) (2022-05-27T02:21:04Z) - Fever Basketball: A Complex, Flexible, and Asynchronized Sports Game
Environment for Multi-agent Reinforcement Learning [38.4742699455284]
バスケットボールの試合をエージェントが訓練する新しい強化学習環境であるFever Basketballゲームを紹介した。
複数の文字、複数の位置、シングルエージェントとマルチエージェントのプレイヤー制御モードをサポートする複雑で困難な環境である。
現実のバスケットボールの試合をより良くシミュレートするために、アクションの実行時間が異なるため、Fever Basketballは新しい非同期環境となる。
論文 参考訳(メタデータ) (2020-12-06T07:51:59Z) - TLeague: A Framework for Competitive Self-Play based Distributed
Multi-Agent Reinforcement Learning [28.795986840557475]
TLeagueは大規模なトレーニングを目標とし、いくつかのメインストリームMARLアルゴリズムを実装している。
我々は、TLeagueの効率性と有効性を示すために、StarCraft II、ViZDoom、Pommermanについて実験を行った。
論文 参考訳(メタデータ) (2020-11-25T17:24:20Z) - Agent Environment Cycle Games [0.36700088931938835]
部分的に観察可能なゲーム(POSG)は、マルチエージェント強化学習(MARL)で使用されるゲームの最も一般的で一般的なモデルである。
POSGモデルは概念的にはソフトウェアMARL環境に不適合であり、このミスマッチが重大な予期せぬ行動を引き起こした文献からケーススタディを提供する。
論文 参考訳(メタデータ) (2020-09-28T04:02:08Z) - Multiplayer Support for the Arcade Learning Environment [0.0]
マルチプレイヤーゲームやゲームモードへのサポートを拡張した,ALEの公開拡張について紹介する。
このインターフェースは PettingZoo と統合されており、Python の Gym ライクなインターフェースでこれらのゲームと対話することができる。
論文 参考訳(メタデータ) (2020-09-20T03:19:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。