論文の概要: Transferable Multi-Agent Reinforcement Learning with Dynamic
Participating Agents
- arxiv url: http://arxiv.org/abs/2208.02424v1
- Date: Thu, 4 Aug 2022 03:16:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-05 12:21:35.395216
- Title: Transferable Multi-Agent Reinforcement Learning with Dynamic
Participating Agents
- Title(参考訳): 動的参加エージェントを用いたトランスファブルマルチエージェント強化学習
- Authors: Xuting Tang, Jia Xu, Shusen Wang
- Abstract要約: 集中学習中にエージェントの数を変動させることができる数ショット学習アルゴリズムを用いたネットワークアーキテクチャを提案する。
提案するネットワークアーキテクチャとアルゴリズムを用いることで,新たなエージェントが加わった場合のモデル適応がベースラインの100倍以上の速度で実現できることを示す。
- 参考スコア(独自算出の注目度): 19.52531351740528
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study multi-agent reinforcement learning (MARL) with centralized training
and decentralized execution. During the training, new agents may join, and
existing agents may unexpectedly leave the training. In such situations, a
standard deep MARL model must be trained again from scratch, which is very
time-consuming. To tackle this problem, we propose a special network
architecture with a few-shot learning algorithm that allows the number of
agents to vary during centralized training. In particular, when a new agent
joins the centralized training, our few-shot learning algorithm trains its
policy network and value network using a small number of samples; when an agent
leaves the training, the training process of the remaining agents is not
affected. Our experiments show that using the proposed network architecture and
algorithm, model adaptation when new agents join can be 100+ times faster than
the baseline. Our work is applicable to any setting, including cooperative,
competitive, and mixed.
- Abstract(参考訳): 集中訓練と分散実行によるマルチエージェント強化学習(MARL)について検討した。
訓練中、新たなエージェントが参加し、既存のエージェントが予期せずトレーニングを離れる可能性がある。
このような状況下では、標準の深いMARLモデルはスクラッチから再び訓練されなければならない。
この問題に対処するために,集中学習中にエージェントの数を変動させることができる数ショット学習アルゴリズムを用いた特殊なネットワークアーキテクチャを提案する。
特に,新たなエージェントが集中トレーニングに参加すると,少数ショット学習アルゴリズムは,少数のサンプルを用いてポリシネットワークとバリューネットワークを訓練する。
提案するネットワークアーキテクチャとアルゴリズムを用いることで,新たなエージェントが参加する場合のモデル適応がベースラインの100倍以上高速になることを示す。
我々の仕事は、協力的、競争的、混合的を含むあらゆる場面に適用できる。
関連論文リスト
- Communication-Efficient Training Workload Balancing for Decentralized Multi-Agent Learning [20.683081355473664]
分散マルチエージェント学習(DML)は、データのプライバシを保持しながら協調的なモデルトレーニングを可能にする。
ComDMLは分散アプローチを通じてエージェント間のワークロードのバランスをとる。
ComDMLは、最先端の手法と比較して、モデル精度を維持しながら、トレーニング全体の時間を著しく短縮することができる。
論文 参考訳(メタデータ) (2024-05-01T20:03:37Z) - Decentralized and Lifelong-Adaptive Multi-Agent Collaborative Learning [57.652899266553035]
分散型および生涯適応型多エージェント協調学習は、中央サーバを使わずに複数のエージェント間のコラボレーションを強化することを目的としている。
動的協調グラフを用いた分散マルチエージェント生涯協調学習アルゴリズムであるDeLAMAを提案する。
論文 参考訳(メタデータ) (2024-03-11T09:21:11Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - MADiff: Offline Multi-agent Learning with Diffusion Models [79.18130544233794]
拡散モデル(DM)は、最近オフライン強化学習を含む様々なシナリオで大きな成功を収めた。
この問題に対処する新しい生成型マルチエージェント学習フレームワークであるMADiffを提案する。
本実験は,マルチエージェント学習タスクにおけるベースラインアルゴリズムと比較して,MADiffの優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-27T02:14:09Z) - Group-Agent Reinforcement Learning [12.915860504511523]
複数の地理的に分散したエージェントがそれぞれのRLタスクを協調的に実行すれば、各エージェントの強化学習プロセスに大きく貢献できる。
グループエージェント強化学習(GARL)のための分散RLフレームワークDDAL(Decentralized Distributed Asynchronous Learning)を提案する。
論文 参考訳(メタデータ) (2022-02-10T16:40:59Z) - K-nearest Multi-agent Deep Reinforcement Learning for Collaborative
Tasks with a Variable Number of Agents [13.110291070230815]
エージェント数の変化を考慮した多エージェント協調作業のための深層強化学習アルゴリズムを提案する。
実運用現場で現実的なシナリオを生成するために日立が開発した艦隊管理シミュレータを用いて,本アルゴリズムの適用例を示した。
論文 参考訳(メタデータ) (2022-01-18T16:14:24Z) - Evaluating Generalization and Transfer Capacity of Multi-Agent
Reinforcement Learning Across Variable Number of Agents [0.0]
マルチエージェント強化学習(MARL)問題は、タスクを解決するためにエージェント間の協調を必要とすることが多い。
中央集権化と分散化は、MARLにおける協力のための2つのアプローチである。
分散実行パラダイムを用いた集中型トレーニングを採用し, エージェント数に応じて, 学習モデルの一般化と伝達能力について検討する。
論文 参考訳(メタデータ) (2021-11-28T15:29:46Z) - Mean-Field Multi-Agent Reinforcement Learning: A Decentralized Network
Approach [6.802025156985356]
本稿では,MARLを状態ネットワークで学習するために,局所学習と分散実行というフレームワークを提案する。
鍵となる考え方は、エージェントの均質性を利用し、それらの状態に応じてそれらを再分類することであり、それによってネットワーク化されたマルコフ決定過程が定式化される。
論文 参考訳(メタデータ) (2021-08-05T16:52:36Z) - MALib: A Parallel Framework for Population-based Multi-agent
Reinforcement Learning [61.28547338576706]
人口ベースマルチエージェント強化学習(PB-MARL)は、強化学習(RL)アルゴリズムでネストした一連の手法を指す。
PB-MARLのためのスケーラブルで効率的な計算フレームワークMALibを提案する。
論文 参考訳(メタデータ) (2021-06-05T03:27:08Z) - F2A2: Flexible Fully-decentralized Approximate Actor-critic for
Cooperative Multi-agent Reinforcement Learning [110.35516334788687]
分散マルチエージェント強化学習アルゴリズムは複雑なアプリケーションでは実践的でないことがある。
本稿では,大規模で汎用的なマルチエージェント設定を扱える,柔軟な完全分散型アクター批判型MARLフレームワークを提案する。
当社のフレームワークは,大規模環境におけるスケーラビリティと安定性を実現し,情報伝達を低減できる。
論文 参考訳(メタデータ) (2020-04-17T14:56:29Z) - Scalable Multi-Agent Inverse Reinforcement Learning via
Actor-Attention-Critic [54.2180984002807]
マルチエージェント逆逆強化学習 (MA-AIRL) は, 単エージェントAIRLをマルチエージェント問題に適用する最近の手法である。
本稿では,従来の手法よりもサンプル効率が高く,スケーラブルなマルチエージェント逆RLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-24T20:30:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。