論文の概要: Concentration Network for Reinforcement Learning of Large-Scale
Multi-Agent Systems
- arxiv url: http://arxiv.org/abs/2203.06416v1
- Date: Sat, 12 Mar 2022 11:45:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-15 14:17:41.214962
- Title: Concentration Network for Reinforcement Learning of Large-Scale
Multi-Agent Systems
- Title(参考訳): 大規模マルチエージェントシステムの強化学習のための集中ネットワーク
- Authors: Qingxu Fu, Tenghai Qiu, Jianqiang Yi, Zhiqiang Pu, Shiguang Wu
- Abstract要約: 本稿では,ConcNetと呼ばれる集中型ネットワークを提案する。
まず、ConcNetは、いくつかのモチベーション指標(例えば、エージェントの生存時間と状態値)を考慮して観察された実体をスコアし、次にランク、プルーフ、および観察された実体のエンコーディングを集約して特徴を抽出する。
また,LMASにおける効果的なポリシをスクラッチから学習できる集中政策勾配アーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 9.265906866641052
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When dealing with a series of imminent issues, humans can naturally
concentrate on a subset of these concerning issues by prioritizing them
according to their contributions to motivational indices, e.g., the probability
of winning a game. This idea of concentration offers insights into
reinforcement learning of sophisticated Large-scale Multi-Agent Systems (LMAS)
participated by hundreds of agents. In such an LMAS, each agent receives a long
series of entity observations at each step, which can overwhelm existing
aggregation networks such as graph attention networks and cause inefficiency.
In this paper, we propose a concentration network called ConcNet. First,
ConcNet scores the observed entities considering several motivational indices,
e.g., expected survival time and state value of the agents, and then ranks,
prunes, and aggregates the encodings of observed entities to extract features.
Second, distinct from the well-known attention mechanism, ConcNet has a unique
motivational subnetwork to explicitly consider the motivational indices when
scoring the observed entities. Furthermore, we present a concentration policy
gradient architecture that can learn effective policies in LMAS from scratch.
Extensive experiments demonstrate that the presented architecture has excellent
scalability and flexibility, and significantly outperforms existing methods on
LMAS benchmarks.
- Abstract(参考訳): 一連の差し迫った問題を扱う場合、人間は、モチベーション指標への貢献、例えば、ゲームに勝つ確率に応じて優先順位付けすることで、これらの問題のサブセットに集中することができる。
この集中の考え方は、数百のエージェントが参加する高度な大規模マルチエージェントシステム(LMAS)の強化学習に関する洞察を提供する。
このようなLMASでは、各エージェントは各ステップで長い実体観測を受け取り、グラフ注意ネットワークなどの既存の集約ネットワークを圧倒し、非効率の原因となる。
本稿では,ConcNetと呼ばれる集中ネットワークを提案する。
まず、ConcNetは、いくつかのモチベーション指標(例えば、エージェントの生存時間と状態値)を考慮して観察された実体をスコアし、次に、観察された実体のエンコーディングを分類して特徴を抽出する。
第二に、よく知られた注意機構とは違い、ConcNetは観察された実体を評価する際のモチベーション指標を明確に考慮するユニークな動機づけサブネットワークを持っている。
さらに, LMASにおける効果的なポリシをスクラッチから学習できる集中政策勾配アーキテクチャを提案する。
広範な実験により、このアーキテクチャは優れたスケーラビリティと柔軟性を有し、lmasベンチマークの既存のメソッドを大幅に上回っていることが示されている。
関連論文リスト
- Scalable spectral representations for multi-agent reinforcement learning in network MDPs [13.782868855372774]
マルチエージェント制御の一般的なモデルであるNetwork Markov Decision Processes (MDPs)は、効率的な学習に重大な課題をもたらす。
まず、ネットワークMDPに対してスケーラブルなスペクトル局所表現を導出し、各エージェントの局所$Q$関数に対するネットワーク線形部分空間を誘導する。
我々は,連続的な状態対応ネットワークMDPのためのスケーラブルなアルゴリズムフレームワークを設計し,アルゴリズムの収束をエンドツーエンドで保証する。
論文 参考訳(メタデータ) (2024-10-22T17:45:45Z) - Enhancing Heterogeneous Multi-Agent Cooperation in Decentralized MARL via GNN-driven Intrinsic Rewards [1.179778723980276]
MARL(Multi-agent Reinforcement Learning)は、シーケンシャルな意思決定と制御タスクの鍵となるフレームワークである。
これらのシステムを現実のシナリオに展開するには、分散トレーニング、多様なエージェントセット、そして頻繁な環境報酬信号から学ぶ必要がある。
我々は,新しいグラフニューラルネットワーク(GNN)に基づく本質的なモチベーションを利用して,異種エージェントポリシーの学習を容易にするCoHetアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-08-12T21:38:40Z) - Unsupervised Graph Attention Autoencoder for Attributed Networks using
K-means Loss [0.0]
我々は、属性付きネットワークにおけるコミュニティ検出のための、教師なしのtextbfGraph Attention textbfAutotextbfEncoder に基づく、シンプルで効率的なクラスタリング指向モデルを提案する。
提案モデルは,ネットワークのトポロジと属性情報の両方から表現を十分に学習し,同時に2つの目的,すなわち再構築とコミュニティ発見に対処する。
論文 参考訳(メタデータ) (2023-11-21T20:45:55Z) - On the dynamics of multi agent nonlinear filtering and learning [2.206852421529135]
マルチエージェントシステムは、ダイナミックスを求める分散コンセンサスを通じて、高度に複雑な学習課題を達成することを目的としている。
本稿では非線形フィルタリング/学習力学を用いたマルチエージェントネットワークシステムの挙動について検討する。
論文 参考訳(メタデータ) (2023-09-07T08:39:53Z) - Sparsity May Cry: Let Us Fail (Current) Sparse Neural Networks Together! [100.19080749267316]
Sparsity May Cry"ベンチマーク(SMC-Bench)は、慎重に計算された4つのタスクと10のデータセットのコレクションである。
SMC-Benchは、よりスケーラブルで一般化可能なスパースアルゴリズムの開発を奨励するように設計されている。
論文 参考訳(メタデータ) (2023-03-03T18:47:21Z) - Influencer Detection with Dynamic Graph Neural Networks [56.1837101824783]
インフルエンサー検出のための動的グラフニューラルネットワーク(GNN)の構成について検討する。
GNNにおける深層多面的注意と時間特性の符号化が性能を著しく向上させることを示す。
論文 参考訳(メタデータ) (2022-11-15T13:00:25Z) - Bayesian Attention Belief Networks [59.183311769616466]
注意に基づくニューラルネットワークは、幅広いタスクにおいて最先端の結果を得た。
本稿では,非正規化注意重みをモデル化してデコーダネットワークを構築するベイズ的注意信念ネットワークについて紹介する。
提案手法は, 精度, 不確実性推定, ドメイン間の一般化, 敵攻撃において, 決定論的注意と最先端の注意よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-06-09T17:46:22Z) - Dif-MAML: Decentralized Multi-Agent Meta-Learning [54.39661018886268]
我々は,MAML や Dif-MAML と呼ばれる協調型マルチエージェントメタ学習アルゴリズムを提案する。
提案手法により, エージェントの集合が線形速度で合意に達し, 集約MAMLの定常点に収束できることを示す。
シミュレーションの結果は従来の非協調的な環境と比較して理論的な結果と優れた性能を示している。
論文 参考訳(メタデータ) (2020-10-06T16:51:09Z) - Deep Reinforced Attention Learning for Quality-Aware Visual Recognition [73.15276998621582]
我々は,任意の畳み込みニューラルネットワークにおける中間注意マップの弱教師付き生成機構を構築した。
メタ批評家ネットワークを導入し、メインネットワークにおける注目マップの質を評価する。
論文 参考訳(メタデータ) (2020-07-13T02:44:38Z) - Randomized Entity-wise Factorization for Multi-Agent Reinforcement
Learning [59.62721526353915]
実世界のマルチエージェント設定は、エージェントや非エージェントエンティティのタイプや量が異なるタスクを伴うことが多い。
我々の方法は、これらの共通点を活用することを目的としており、「観察対象のランダムに選択されたサブグループのみを考えるとき、各エージェントが期待する効用は何か?」という問いを投げかける。
論文 参考訳(メタデータ) (2020-06-07T18:28:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。