論文の概要: Self-Paced Multi-Agent Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2205.10016v1
- Date: Fri, 20 May 2022 08:16:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-23 14:31:48.517880
- Title: Self-Paced Multi-Agent Reinforcement Learning
- Title(参考訳): 自己ペースマルチエージェント強化学習
- Authors: Wenshuai Zhao, Joni Pajarinen
- Abstract要約: 我々は, エージェント数と他の環境要因を原則的に最適化できるセルフパッチMARL(SPMARL)を導入する。
SPMARLによって引き起こされたカリキュラムは、エージェントの数や実験によってタスクの進化が明らかとなり、エージェントの数がタスクの難易度に十分な影響を及ぼす場合、SPMARLはパフォーマンスを改善する。
- 参考スコア(独自算出の注目度): 6.9788071083683585
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Curriculum reinforcement learning (CRL) aims to speed up learning of a task
by changing gradually the difficulty of the task from easy to hard through
control of factors such as initial state or environment dynamics. While
automating CRL is well studied in the single-agent setting, in multi-agent
reinforcement learning (MARL) an open question is whether control of the number
of agents with other factors in a principled manner is beneficial, prior
approaches typically relying on hand-crafted heuristics. In addition, how the
tasks evolve as the number of agents changes remains understudied, which is
critical for scaling to more challenging tasks. We introduce self-paced MARL
(SPMARL) that enables optimizing the number of agents with other environment
factors in a principled way, and, show that usual assumptions such as that
fewer agents make the task always easier are not generally valid. The
curriculum induced by SPMARL reveals the evolution of tasks w.r.t. number of
agents and experiments show that SPMARL improves the performance when the
number of agents sufficiently influences task difficulty.
- Abstract(参考訳): CRL(Curriculum reinforcement learning)は、初期状態や環境力学などの要因の制御を通じて、タスクの難易度を徐々に変化させることにより、タスクの学習を高速化することを目的とする。
crlの自動化は単一エージェント設定でよく研究されているが、マルチエージェント強化学習(marl)では、原則的に他の要因によるエージェントの数の制御が有効であるかどうかという疑問がある。
さらに、エージェントの数の変化に伴ってタスクがどのように進化するかについては、まだ検討されていない。
本稿では, エージェントの数を他の環境要因に最適化できるセルフペース型MARL(SPMARL)を導入し, エージェントの数を減らしてタスクを楽にするといった通常の仮定が一般的に有効でないことを示す。
SPMARLによって引き起こされたカリキュラムは、エージェントの数や実験によってタスクの進化を明らかにしており、エージェントの数がタスクの難易度に十分な影響を及ぼす場合、SPMARLはパフォーマンスを改善する。
関連論文リスト
- Continuous Control with Coarse-to-fine Reinforcement Learning [15.585706638252441]
本稿ではRLエージェントを粗い方法で連続的なアクション空間にズームインするよう訓練するフレームワークを提案する。
我々は、CQN(Coarse-to-fine Q-Network)と呼ばれる、具体的な価値に基づくアルゴリズムをフレームワーク内に導入する。
CQNは、オンライントレーニングの数分後に現実世界の操作タスクを解決するために、しっかりと学習している。
論文 参考訳(メタデータ) (2024-07-10T16:04:08Z) - ArCHer: Training Language Model Agents via Hierarchical Multi-Turn RL [80.10358123795946]
大規模言語モデルを微調整するためのマルチターンRLアルゴリズムを構築するためのフレームワークを開発する。
我々のフレームワークは階層的なRLアプローチを採用し、2つのRLアルゴリズムを並列に実行している。
実験により,ArCHerはエージェントタスクの効率と性能を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2024-02-29T18:45:56Z) - RL$^3$: Boosting Meta Reinforcement Learning via RL inside RL$^2$ [12.111848705677142]
メタRLへの入力において、従来のRLを通してタスク毎に学習されるアクション値を含むハイブリッドアプローチであるRL$3$を提案する。
RL$3$は、RL$2$と比較して、短期的にはデータ効率を保ちながら、長期的には累積的な報酬を多く得ており、アウト・オブ・ディストリビューション・タスクよりも一般化されていることを示す。
論文 参考訳(メタデータ) (2023-06-28T04:16:16Z) - Train Hard, Fight Easy: Robust Meta Reinforcement Learning [78.16589993684698]
実世界のアプリケーションにおける強化学習(RL)の大きな課題は、環境、タスク、クライアントの違いである。
標準的なMRL法は、タスクよりも平均的なリターンを最適化するが、リスクや難易度の高いタスクでは悪い結果に悩まされることが多い。
本研究では, MRL の頑健な目標を制御レベルで定義する。
ロバストメタRLアルゴリズム(RoML)を用いてデータ非効率に対処する
論文 参考訳(メタデータ) (2023-01-26T14:54:39Z) - Jump-Start Reinforcement Learning [68.82380421479675]
本稿では、オフラインデータやデモ、あるいは既存のポリシーを使ってRLポリシーを初期化するメタアルゴリズムを提案する。
特に,タスク解決に2つのポリシーを利用するアルゴリズムであるJump-Start Reinforcement Learning (JSRL)を提案する。
実験により、JSRLは既存の模倣と強化学習アルゴリズムを大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2022-04-05T17:25:22Z) - URLB: Unsupervised Reinforcement Learning Benchmark [82.36060735454647]
教師なし強化学習ベンチマーク(URLB)を紹介する。
URLBは2つのフェーズで構成されている。
評価のために3つのドメインから12の連続制御タスクを提供し、8つの主要な教師なしRLメソッドに対してオープンソースコードを提供する。
論文 参考訳(メタデータ) (2021-10-28T15:07:01Z) - Text Generation with Efficient (Soft) Q-Learning [91.47743595382758]
強化学習(RL)は、任意のタスクメトリクスを報酬としてプラグインすることで、より柔軟なソリューションを提供する。
ソフトQ-ラーニングの観点からテキスト生成のための新しいRL式を導入する。
雑音/負の例から学習し、敵攻撃、即時生成など、幅広いタスクにアプローチを適用する。
論文 参考訳(メタデータ) (2021-06-14T18:48:40Z) - Cross-Trajectory Representation Learning for Zero-Shot Generalization in
RL [21.550201956884532]
高次元の観察空間上のいくつかのタスクで学んだポリシーを、トレーニング中に見えない同様のタスクに一般化する。
この課題に対する多くの有望なアプローチは、RLを2つの関数を同時に訓練するプロセスと見なしている。
本稿では,RLエージェント内で動作するクロストラジェクトリ表現学習(CTRL, Cross-Trajectory Representation Learning)を提案する。
論文 参考訳(メタデータ) (2021-06-04T00:43:10Z) - Continuous Coordination As a Realistic Scenario for Lifelong Learning [6.044372319762058]
ゼロショット設定と少数ショット設定の両方をサポートするマルチエージェント生涯学習テストベッドを導入する。
最近のMARL法、および制限メモリおよび計算における最新のLLLアルゴリズムのベンチマークを評価します。
我々は経験的に、我々の設定で訓練されたエージェントは、以前の作業による追加の仮定なしに、未発見のエージェントとうまく協調できることを示します。
論文 参考訳(メタデータ) (2021-03-04T18:44:03Z) - Conservative Q-Learning for Offline Reinforcement Learning [106.05582605650932]
CQLは既存のオフラインRLメソッドよりも大幅に優れており、多くの場合、ファイナルリターンの2~5倍高いポリシを学習しています。
理論的には、CQLは現在のポリシーの価値の低いバウンダリを生成し、理論的改善保証を伴う政策学習手順に組み込むことができることを示す。
論文 参考訳(メタデータ) (2020-06-08T17:53:42Z) - Self-Paced Deep Reinforcement Learning [42.467323141301826]
カリキュラム強化学習(CRL)は、学習を通して調整された一連のタスクに公開することにより、エージェントの学習速度と安定性を向上させる。
実証的な成功にもかかわらず、CRLのオープンな疑問は、手動設計を避けながら、与えられた強化学習(RL)エージェントのカリキュラムを自動的に生成する方法である。
本稿では,カリキュラム生成を推論問題として解釈し,タスク上の分布を段階的に学習し,対象タスクにアプローチすることで解答を提案する。
このアプローチは、エージェントがペースを制御し、しっかりとした理論的動機を持ち、深いRLアルゴリズムと容易に統合できる自動カリキュラム生成につながる。
論文 参考訳(メタデータ) (2020-04-24T15:48:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。