論文の概要: DDA3C: Cooperative Distributed Deep Reinforcement Learning in A
Group-Agent System
- arxiv url: http://arxiv.org/abs/2202.05135v1
- Date: Thu, 10 Feb 2022 16:40:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-11 16:27:05.802251
- Title: DDA3C: Cooperative Distributed Deep Reinforcement Learning in A
Group-Agent System
- Title(参考訳): DDA3C:グループエージェントシステムにおける協調分散深層強化学習
- Authors: Kaiyue Wu, Xiao-Jun Zeng
- Abstract要約: グループエージェント強化学習は、複数のエージェントが別々の強化学習タスクを協調的に実行する場合、各エージェントの強化学習プロセスに大きく貢献する。
本稿では,このシナリオ下での強化学習問題の定式化と,単エージェントおよび多エージェント強化学習に関する第3タイプの強化学習問題としてグループエージェント強化学習を提案する。
我々はDDA3Cが望ましい性能を達成し、スケーラビリティに優れたCartPole-v0ゲーム環境での実験を通して示す。
- 参考スコア(独自算出の注目度): 13.274835852615576
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It can largely benefit the reinforcement learning process of each agent if
multiple agents perform their separate reinforcement learning tasks
cooperatively. These tasks can be not exactly the same but still benefit from
the communication behaviour between agents due to task similarities. In fact,
this learning scenario is not well understood yet and not well formulated. As
the first effort, we provide a detailed discussion of this scenario, and
propose group-agent reinforcement learning as a formulation of the
reinforcement learning problem under this scenario and a third type of
reinforcement learning problem with respect to single-agent and multi-agent
reinforcement learning. We propose that it can be solved with the help of
modern deep reinforcement learning techniques and provide a distributed deep
reinforcement learning algorithm called DDA3C (Decentralised Distributed
Asynchronous Advantage Actor-Critic) that is the first framework designed for
group-agent reinforcement learning. We show through experiments in the
CartPole-v0 game environment that DDA3C achieved desirable performance and has
good scalability.
- Abstract(参考訳): 複数のエージェントが個別の強化学習タスクを協調して実行する場合、各エージェントの強化学習プロセスに大きなメリットがある。
これらのタスクは必ずしも同じではないが、タスクの類似性からエージェント間の通信行動の恩恵を受ける。
実際、この学習シナリオはまだよく理解されておらず、十分に定式化されていない。
まず,本シナリオに関する詳細な議論を行い,本シナリオにおける強化学習問題の定式化としてグループエージェント強化学習と,シングルエージェントとマルチエージェント強化学習に関する第3のタイプの強化学習問題を提案する。
グループエージェント強化学習のための最初のフレームワークであるDDA3C (Decentralized Distributed Asynchronous Advantage Actor-Critic) と呼ばれる分散強化学習アルゴリズムを提案する。
我々はDDA3Cが望ましい性能を達成し、スケーラビリティに優れたCartPole-v0ゲーム環境での実験を通して示す。
関連論文リスト
- MALT: Improving Reasoning with Multi-Agent LLM Training [64.13803241218886]
推論問題に対するマルチエージェントLLMトレーニング(MALT)に向けた第一歩を提示する。
提案手法では,ヘテロジニアスLSMが割り当てられた逐次的マルチエージェント構成を用いる。
我々は,MATH,GSM8k,CQAにまたがるアプローチを評価し,MALT on Llama 3.1 8Bモデルでそれぞれ14.14%,7.12%,9.40%の相対的な改善を実現した。
論文 参考訳(メタデータ) (2024-12-02T19:30:36Z) - On the Linear Speedup of Personalized Federated Reinforcement Learning with Shared Representations [15.549340968605234]
フェデレート強化学習(FedRL)は、エージェントと環境相互作用の間に収集された局所的な軌跡を共有することなく、複数のエージェントが協調的にポリシーを学ぶことを可能にする。
異種環境におけるエージェント間の共通構造を生かし, 共生型FedRLフレームワーク(PFedRL)を導入する。
論文 参考訳(メタデータ) (2024-11-22T15:42:43Z) - Learning Emergence of Interaction Patterns across Independent RL Agents in Multi-Agent Environments [3.0284592792243794]
ボトムアップネットワーク(BUN)は、マルチエージェントの集合を統一エンティティとして扱う。
協調ナビゲーションやトラヒックコントロールなどのタスクを含む,さまざまな協調型マルチエージェントシナリオに対する実証的な評価は,BUNが計算コストを大幅に削減したベースライン手法よりも優れていることを一貫して証明している。
論文 参考訳(メタデータ) (2024-10-03T14:25:02Z) - Selectively Sharing Experiences Improves Multi-Agent Reinforcement Learning [9.25057318925143]
エージェントは他のエージェントと、トレーニング中に観察される遷移の限られた数で共有する、新しいマルチエージェントRLアプローチを提案する。
提案手法は,ベースラインの非共有型分散トレーニングと最先端のマルチエージェントRLアルゴリズムより優れていることを示す。
論文 参考訳(メタデータ) (2023-11-01T21:35:32Z) - Learning From Good Trajectories in Offline Multi-Agent Reinforcement
Learning [98.07495732562654]
オフラインマルチエージェント強化学習(MARL)は、事前コンパイルされたデータセットから効果的なマルチエージェントポリシーを学ぶことを目的としている。
オフラインのMARLが学んだエージェントは、しばしばこのランダムなポリシーを継承し、チーム全体のパフォーマンスを脅かす。
この問題に対処するために,共有個人軌道(SIT)と呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-28T18:11:26Z) - Locality Matters: A Scalable Value Decomposition Approach for
Cooperative Multi-Agent Reinforcement Learning [52.7873574425376]
協調型マルチエージェント強化学習(MARL)は,エージェント数で指数関数的に大きい状態空間と動作空間により,スケーラビリティの問題に直面する。
本稿では,学習分散実行パラダイムに局所報酬を組み込んだ,新しい価値に基づくマルチエージェントアルゴリズム LOMAQ を提案する。
論文 参考訳(メタデータ) (2021-09-22T10:08:15Z) - AoI-Aware Resource Allocation for Platoon-Based C-V2X Networks via
Multi-Agent Multi-Task Reinforcement Learning [22.890835786710316]
本稿は,小隊の無線リソース管理を意識した情報年齢(AoI)の問題について検討する。
複数の自律型プラトンは、C-V2X通信技術を利用して、協力的認識メッセージ(CAM)をフォロワーに広める。
我々は,マルチエージェント強化学習(marl)に基づく分散リソース割当フレームワークを活用し,各小隊リーダ(pl)がエージェントとして行動し,環境と相互作用して最適方針を学ぶ。
論文 参考訳(メタデータ) (2021-05-10T08:39:56Z) - F2A2: Flexible Fully-decentralized Approximate Actor-critic for
Cooperative Multi-agent Reinforcement Learning [110.35516334788687]
分散マルチエージェント強化学習アルゴリズムは複雑なアプリケーションでは実践的でないことがある。
本稿では,大規模で汎用的なマルチエージェント設定を扱える,柔軟な完全分散型アクター批判型MARLフレームワークを提案する。
当社のフレームワークは,大規模環境におけるスケーラビリティと安定性を実現し,情報伝達を低減できる。
論文 参考訳(メタデータ) (2020-04-17T14:56:29Z) - Distributed Reinforcement Learning for Cooperative Multi-Robot Object
Manipulation [53.262360083572005]
強化学習(RL)を用いた協調型マルチロボットオブジェクト操作タスクの検討
分散近似RL(DA-RL)とゲーム理論RL(GT-RL)の2つの分散マルチエージェントRLアプローチを提案する。
本稿では, DA-RL と GT-RL を多エージェントシステムに適用し, 大規模システムへの拡張が期待される。
論文 参考訳(メタデータ) (2020-03-21T00:43:54Z) - Scalable Multi-Agent Inverse Reinforcement Learning via
Actor-Attention-Critic [54.2180984002807]
マルチエージェント逆逆強化学習 (MA-AIRL) は, 単エージェントAIRLをマルチエージェント問題に適用する最近の手法である。
本稿では,従来の手法よりもサンプル効率が高く,スケーラブルなマルチエージェント逆RLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-24T20:30:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。