論文の概要: Quantifying environment and population diversity in multi-agent
reinforcement learning
- arxiv url: http://arxiv.org/abs/2102.08370v1
- Date: Tue, 16 Feb 2021 18:54:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-17 14:57:11.102452
- Title: Quantifying environment and population diversity in multi-agent
reinforcement learning
- Title(参考訳): マルチエージェント強化学習における環境と人口多様性の定量化
- Authors: Kevin R. McKee and Joel Z. Leibo and Charlie Beattie and Richard
Everett
- Abstract要約: 一般化は多エージェント強化学習の大きな課題である。
本稿では,マルチエージェント領域における一般化と多様性の関係を定量的に検討する。
共同演奏者の変動が与える影響をよりよく理解するために,実験では,行動の多様性の環境によらない新しい尺度を導入する。
- 参考スコア(独自算出の注目度): 7.548322030720646
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generalization is a major challenge for multi-agent reinforcement learning.
How well does an agent perform when placed in novel environments and in
interactions with new co-players? In this paper, we investigate and quantify
the relationship between generalization and diversity in the multi-agent
domain. Across the range of multi-agent environments considered here,
procedurally generating training levels significantly improves agent
performance on held-out levels. However, agent performance on the specific
levels used in training sometimes declines as a result. To better understand
the effects of co-player variation, our experiments introduce a new
environment-agnostic measure of behavioral diversity. Results demonstrate that
population size and intrinsic motivation are both effective methods of
generating greater population diversity. In turn, training with a diverse set
of co-players strengthens agent performance in some (but not all) cases.
- Abstract(参考訳): 一般化は多エージェント強化学習の大きな課題である。
エージェントは、新しい環境や新しいコプレイヤーとのインタラクションでどのように機能しますか?
本稿では,マルチエージェント領域における一般化と多様性の関係を定量的に検討する。
ここで考慮されるマルチエージェント環境の範囲で、手続き的にトレーニングレベルを生成することで、保留レベルのエージェントパフォーマンスが大幅に向上します。
しかし、トレーニングで使用する特定のレベルのエージェントのパフォーマンスは、結果として低下することがある。
共同演奏者の変動が与える影響をよりよく理解するために,実験では,行動の多様性の環境によらない新しい尺度を導入する。
以上の結果から,人口規模と本質的モチベーションはともに,人口の多様性を高める効果的な方法であることが示唆された。
逆に、多種多様なコプレイヤーによるトレーニングは、エージェントのパフォーマンスを(すべてではないが)強化する。
関連論文リスト
- Multi-Agent Interplay in a Competitive Survival Environment [0.0]
この論文は、2022年、ローマ・サピエンザ大学の人工知能とロボティクスの修士号に対する著者の論文"Multi-Agent Interplay in a Competitive Survival Environment"の一部である。
論文 参考訳(メタデータ) (2023-01-19T12:04:03Z) - ELIGN: Expectation Alignment as a Multi-Agent Intrinsic Reward [29.737986509769808]
本稿では,自己監督型固有報酬ELIGN-期待アライメントを提案する。
動物が周囲の動物と分散的に協力するのと同じように、期待アライメントで訓練されたエージェントは、隣人の期待に合う行動を学ぶ。
エージェント・コーディネーションは、エージェントがタスクを個別に分割し、コーディネーション・対称性を破り、敵を混乱させ、予測アライメントを通じて改善することを示す。
論文 参考訳(メタデータ) (2022-10-09T22:24:44Z) - Policy Diagnosis via Measuring Role Diversity in Cooperative Multi-agent
RL [107.58821842920393]
我々はエージェントの行動差を定量化し、bfロールの多様性を通して政策パフォーマンスとの関係を構築する
MARLの誤差は, 役割多様性と強い関係を持つ3つの部分に分けられる。
分解された要因は3つの一般的な方向における政策最適化に大きな影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2022-06-01T04:58:52Z) - LDSA: Learning Dynamic Subtask Assignment in Cooperative Multi-Agent
Reinforcement Learning [122.47938710284784]
協調型MARLにおける動的サブタスク代入(LDSA)を学習するための新しいフレームワークを提案する。
エージェントを異なるサブタスクに合理的に割り当てるために,能力に基づくサブタスク選択戦略を提案する。
LDSAは、より優れたコラボレーションのために、合理的で効果的なサブタスクの割り当てを学習していることを示す。
論文 参考訳(メタデータ) (2022-05-05T10:46:16Z) - Pick Your Battles: Interaction Graphs as Population-Level Objectives for
Strategic Diversity [49.68758494467258]
我々は、集団内の個人がどのように相互作用するかを慎重に構造化することで、多様なエージェントの集団を構築する方法について研究する。
我々のアプローチは,エージェント間の情報の流れを制御するインタラクショングラフに基づいている。
マルチエージェント・トレーニングにおける多様性の重要性を証明し,様々な相互作用グラフを適用したゲームにおけるトレーニング・トラジェクトリ,多様性,パフォーマンスに与える影響を解析する。
論文 参考訳(メタデータ) (2021-10-08T11:29:52Z) - Learning to Incentivize Other Learning Agents [73.03133692589532]
我々は、学習インセンティブ関数を用いて、RLエージェントに他のエージェントに直接報酬を与える能力を持たせる方法を示す。
このようなエージェントは、一般的なマルコフゲームにおいて、標準のRLと対戦型エージェントを著しく上回っている。
私たちの仕事は、マルチエージェントの未来において共通の善を確実にする道のりに沿って、より多くの機会と課題を指しています。
論文 参考訳(メタデータ) (2020-06-10T20:12:38Z) - Randomized Entity-wise Factorization for Multi-Agent Reinforcement
Learning [59.62721526353915]
実世界のマルチエージェント設定は、エージェントや非エージェントエンティティのタイプや量が異なるタスクを伴うことが多い。
我々の方法は、これらの共通点を活用することを目的としており、「観察対象のランダムに選択されたサブグループのみを考えるとき、各エージェントが期待する効用は何か?」という問いを投げかける。
論文 参考訳(メタデータ) (2020-06-07T18:28:41Z) - Parallel Knowledge Transfer in Multi-Agent Reinforcement Learning [0.2538209532048867]
本稿では,MARL(Parallel Attentional Transfer)における新しい知識伝達フレームワークを提案する。
PAT,学生モード,自己学習モードの2つの動作モードを設計する。
エージェントが環境に不慣れな場合、学生モードにおける共有注意機構は、エージェントの行動を決定するために、他のエージェントからの学習知識を効果的に選択する。
論文 参考訳(メタデータ) (2020-03-29T17:42:00Z) - Scalable Multi-Agent Inverse Reinforcement Learning via
Actor-Attention-Critic [54.2180984002807]
マルチエージェント逆逆強化学習 (MA-AIRL) は, 単エージェントAIRLをマルチエージェント問題に適用する最近の手法である。
本稿では,従来の手法よりもサンプル効率が高く,スケーラブルなマルチエージェント逆RLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-24T20:30:45Z) - Effective Diversity in Population Based Reinforcement Learning [38.62641968788987]
人口のすべてのメンバを同時に最適化するアプローチを導入する。
対距離を使用するのではなく、行動多様体内の全集団の体積を測定する。
我々のアルゴリズムは、オンライン学習技術を用いて、トレーニング中に多様性の度合いを適応させる。
論文 参考訳(メタデータ) (2020-02-03T10:09:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。