論文の概要: Hybrid Information-driven Multi-agent Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2102.01004v1
- Date: Mon, 1 Feb 2021 17:28:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-02 16:00:07.288418
- Title: Hybrid Information-driven Multi-agent Reinforcement Learning
- Title(参考訳): ハイブリッド情報駆動マルチエージェント強化学習
- Authors: William A. Dawson, Ruben Glatt, Edward Rusu, Braden C. Soper, Ryan A.
Goldhahn
- Abstract要約: 情報理論センサ管理のアプローチは、大きな状態空間では集中的すぎる。
強化学習は、分散最適制御問題の近似解を見つけるための有望な代替手段である。
本稿では,ハイブリッド情報駆動型マルチエージェント強化学習手法を提案する。
- 参考スコア(独自算出の注目度): 3.7011129410662553
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Information theoretic sensor management approaches are an ideal solution to
state estimation problems when considering the optimal control of multi-agent
systems, however they are too computationally intensive for large state spaces,
especially when considering the limited computational resources typical of
large-scale distributed multi-agent systems. Reinforcement learning (RL) is a
promising alternative which can find approximate solutions to distributed
optimal control problems that take into account the resource constraints
inherent in many systems of distributed agents. However, the RL training can be
prohibitively inefficient, especially in low-information environments where
agents receive little to no feedback in large portions of the state space. We
propose a hybrid information-driven multi-agent reinforcement learning (MARL)
approach that utilizes information theoretic models as heuristics to help the
agents navigate large sparse state spaces, coupled with information based
rewards in an RL framework to learn higher-level policies. This paper presents
our ongoing work towards this objective. Our preliminary findings show that
such an approach can result in a system of agents that are approximately three
orders of magnitude more efficient at exploring a sparse state space than naive
baseline metrics. While the work is still in its early stages, it provides a
promising direction for future research.
- Abstract(参考訳): 情報理論センサ管理手法は、マルチエージェントシステムの最適制御を考える場合の状態推定問題に対する理想的な解決策であるが、大規模分散マルチエージェントシステムで典型的な限られた計算資源を考えると、大きな状態空間では計算集約的すぎる。
強化学習(RL)は、分散エージェントの多くのシステムに固有のリソース制約を考慮して、分散最適制御問題に対する近似ソリューションを見つけることができる有望な代替手段です。
しかし、特に州空間の大部分でエージェントがほとんどフィードバックを受けていない低情報環境では、rlトレーニングは禁止的に非効率である。
本稿では,情報理論モデルをヒューリスティックとして活用し,エージェントが大きなスパース状態空間をナビゲートするのを支援する,情報駆動型マルチエージェント強化学習(marl)手法を提案する。
本稿では,この目的に向けた取り組みについて述べる。
予備的な知見から,このようなアプローチは,単純なベースラインメトリクスよりもスパース状態空間を探索する上で,およそ3桁の効率性を持つエージェントのシステムをもたらす可能性が示唆された。
作業はまだ初期段階ですが、将来の研究に有望な方向性を提供します。
関連論文リスト
- Self-Supervised Neuron Segmentation with Multi-Agent Reinforcement
Learning [53.00683059396803]
マスク画像モデル(MIM)は,マスク画像から元の情報を復元する簡便さと有効性から広く利用されている。
本稿では、強化学習(RL)を利用して最適な画像マスキング比とマスキング戦略を自動検索する決定に基づくMIMを提案する。
本手法は,ニューロン分節の課題において,代替自己監督法に対して有意な優位性を有する。
論文 参考訳(メタデータ) (2023-10-06T10:40:46Z) - Evolving Populations of Diverse RL Agents with MAP-Elites [1.5575376673936223]
政策だけでなく,任意の強化学習(RL)アルゴリズムの利用を可能にするフレキシブルなフレームワークを導入する。
我々は,多数のロボット制御問題に対する広範な数値実験を通じて,我々のフレームワークがもたらすメリットを実証する。
論文 参考訳(メタデータ) (2023-03-09T19:05:45Z) - A Survey on Large-Population Systems and Scalable Multi-Agent
Reinforcement Learning [18.918558716102144]
我々は、大規模人口システムを理解し分析するための現在のアプローチに光を当てる。
我々は,大規模制御の応用の可能性を調査し,実践システムにおける学習アルゴリズムの有能な将来的応用について検討する。
論文 参考訳(メタデータ) (2022-09-08T14:58:50Z) - PooL: Pheromone-inspired Communication Framework forLarge Scale
Multi-Agent Reinforcement Learning [0.0]
textbfPooLは、大規模マルチエージェント強化の textbfl に適用される間接通信フレームワークである。
PooLはフェロモンの放出と利用機構を利用して、大規模なエージェント調整を制御する。
PooLは効果的な情報を取り込み、通信コストの低い他の最先端手法よりも高い報酬を得ることができる。
論文 参考訳(メタデータ) (2022-02-20T03:09:53Z) - Relative Distributed Formation and Obstacle Avoidance with Multi-agent
Reinforcement Learning [20.401609420707867]
マルチエージェント強化学習(MARL)に基づく分散生成・障害物回避手法を提案する。
提案手法は, 障害物回避における生成誤差, 生成収束率, オンパー成功率に関して, ベースラインと比較して高い性能を実現する。
論文 参考訳(メタデータ) (2021-11-14T13:02:45Z) - Locality Matters: A Scalable Value Decomposition Approach for
Cooperative Multi-Agent Reinforcement Learning [52.7873574425376]
協調型マルチエージェント強化学習(MARL)は,エージェント数で指数関数的に大きい状態空間と動作空間により,スケーラビリティの問題に直面する。
本稿では,学習分散実行パラダイムに局所報酬を組み込んだ,新しい価値に基づくマルチエージェントアルゴリズム LOMAQ を提案する。
論文 参考訳(メタデータ) (2021-09-22T10:08:15Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z) - Dif-MAML: Decentralized Multi-Agent Meta-Learning [54.39661018886268]
我々は,MAML や Dif-MAML と呼ばれる協調型マルチエージェントメタ学習アルゴリズムを提案する。
提案手法により, エージェントの集合が線形速度で合意に達し, 集約MAMLの定常点に収束できることを示す。
シミュレーションの結果は従来の非協調的な環境と比較して理論的な結果と優れた性能を示している。
論文 参考訳(メタデータ) (2020-10-06T16:51:09Z) - Dynamics Generalization via Information Bottleneck in Deep Reinforcement
Learning [90.93035276307239]
本稿では,RLエージェントのより優れた一般化を実現するために,情報理論正則化目標とアニーリングに基づく最適化手法を提案する。
迷路ナビゲーションからロボットタスクまで、さまざまな領域において、我々のアプローチの極端な一般化の利点を実証する。
この研究は、タスク解決のために冗長な情報を徐々に取り除き、RLの一般化を改善するための原則化された方法を提供する。
論文 参考訳(メタデータ) (2020-08-03T02:24:20Z) - A Survey of Reinforcement Learning Algorithms for Dynamically Varying
Environments [1.713291434132985]
強化学習(Reinforcement Learning, RL)アルゴリズムは、在庫管理、レコメンデータシステム、車両交通管理、クラウドコンピューティング、ロボット工学などの分野で応用されている。
これらの領域で生じる多くのタスクの現実的な合併症は、古典的RLアルゴリズムの基礎となる基本的な仮定で解くのを難しくする。
本稿では、動的に変化する環境モデルを扱うために開発されたRL法について調査する。
これらのアルゴリズムの代表的コレクションは、それらの分類と相対的なメリットとデメリットと共に、この研究で詳細に議論されている。
論文 参考訳(メタデータ) (2020-05-19T09:42:42Z) - F2A2: Flexible Fully-decentralized Approximate Actor-critic for
Cooperative Multi-agent Reinforcement Learning [110.35516334788687]
分散マルチエージェント強化学習アルゴリズムは複雑なアプリケーションでは実践的でないことがある。
本稿では,大規模で汎用的なマルチエージェント設定を扱える,柔軟な完全分散型アクター批判型MARLフレームワークを提案する。
当社のフレームワークは,大規模環境におけるスケーラビリティと安定性を実現し,情報伝達を低減できる。
論文 参考訳(メタデータ) (2020-04-17T14:56:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。