論文の概要: Distributed Multi-Agent Deep Reinforcement Learning for Robust
Coordination against Noise
- arxiv url: http://arxiv.org/abs/2205.09705v1
- Date: Thu, 19 May 2022 17:18:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-20 14:05:42.291893
- Title: Distributed Multi-Agent Deep Reinforcement Learning for Robust
Coordination against Noise
- Title(参考訳): 雑音に対するロバスト調整のための分散マルチエージェント深部強化学習
- Authors: Yoshinari Motokawa and Toshiharu Sugawara
- Abstract要約: マルチエージェントシステム(DA3-X)のための多機能アクターアーキテクチャモデルを提案する。
我々は,DA3-Xのエージェントが雑音環境を選択的に学習し,協調して行動できることを実証した。
我々は,DA3-Xの有効性を実験的に評価し,DA3-Xのエージェントがベースラインエージェントよりも優れた性能が得られることを示す。
- 参考スコア(独自算出の注目度): 2.741266294612776
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In multi-agent systems, noise reduction techniques are important for
improving the overall system reliability as agents are required to rely on
limited environmental information to develop cooperative and coordinated
behaviors with the surrounding agents. However, previous studies have often
applied centralized noise reduction methods to build robust and versatile
coordination in noisy multi-agent environments, while distributed and
decentralized autonomous agents are more plausible for real-world application.
In this paper, we introduce a \emph{distributed attentional actor architecture
model for a multi-agent system} (DA3-X), using which we demonstrate that agents
with DA3-X can selectively learn the noisy environment and behave
cooperatively. We experimentally evaluate the effectiveness of DA3-X by
comparing learning methods with and without DA3-X and show that agents with
DA3-X can achieve better performance than baseline agents. Furthermore, we
visualize heatmaps of \emph{attentional weights} from the DA3-X to analyze how
the decision-making process and coordinated behavior are influenced by noise.
- Abstract(参考訳): マルチエージェントシステムでは,周囲のエージェントとの協調的協調行動を促進するために,限られた環境情報に頼らなければならないため,システム全体の信頼性を向上させるためにノイズ低減技術が重要である。
しかし、従来の研究では、雑音の多いマルチエージェント環境においてロバストで多用途な協調を構築するために集中型ノイズ低減法を適用してきた。
本稿では,多エージェントシステム(DA3-X)のための<emph{distributed attentional actor architecture model(DA3-X)を紹介し,DA3-Xを持つエージェントが雑音環境を選択的に学習し,協調して振る舞うことを実証する。
DA3-Xの学習方法とDA3-Xの有無を比較し,DA3-Xのエージェントがベースラインエージェントよりも優れた性能が得られることを示す。
さらに,DA3-Xから<emph{attentional weights</e>の熱マップを可視化し,決定過程と協調行動がノイズに与える影響を分析する。
関連論文リスト
- Semi-supervised Anomaly Detection via Adaptive Reinforcement Learning-Enabled Method with Causal Inference for Sensor Signals [15.249261198557218]
センサ信号の半教師付き異常検出は、スマート製造におけるシステムの信頼性確保に不可欠である。
本稿では,三重補足型因果強化学習モデル(Tri-CRLAD)を革新的に構築する。
7つのセンサ信号データセットに対する実験結果から、Tri-CRLADは9つの最先端のベースライン法より優れていることが示された。
論文 参考訳(メタデータ) (2024-05-11T06:10:05Z) - Collaborative Filtering Based on Diffusion Models: Unveiling the Potential of High-Order Connectivity [10.683635786183894]
CF-Diffは新しい拡散モデルに基づく協調フィルタリング手法である。
マルチホップの隣人と一緒に、協調的な信号を完全に活用することができる。
最高の競争相手に比べて7.29%も上昇している。
論文 参考訳(メタデータ) (2024-04-22T14:49:46Z) - Learning to Use Tools via Cooperative and Interactive Agents [58.77710337157665]
ツール学習は、外部ツールを使用してユーティリティを拡張するエージェントとして、大きな言語モデル(LLM)を促進する。
ツール選択,ツール実行,アクションキャリブレーションの3つの特別なエージェントを個別にコーディネートする,協調型対話型エージェントフレームワークであるConAgentsを提案する。
3つのデータセットに対する実験により、LLMは、ConAgentsを装備した場合、大幅に改善されたベースラインよりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-03-05T15:08:16Z) - Multiagent Copilot Approach for Shared Autonomy between Human EEG and
TD3 Deep Reinforcement Learning [1.6627862444646657]
人体の脳波(EEG)からデコードされた作用指令と、与えられた環境に対する双発遅延DDPG(TD3)エージェントから生成された作用との間には、共有自律性が認められた。
提案手法は,EEG(EEG-NB)やTD3(TD3制御)よりも有意に優れていた。
論文 参考訳(メタデータ) (2023-12-22T06:15:50Z) - A Variational Approach to Mutual Information-Based Coordination for
Multi-Agent Reinforcement Learning [17.893310647034188]
マルチエージェント強化学習のための新しい相互情報フレームワークを提案する。
導出された下界を最大化するためにポリシーを適用することで,多エージェントアクタ-アクタ-アクタ-アクタ-アクタ-アクタ-アクタ-アクタ-アクタ-アクタ-アクタ-アクティベートアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-01T12:21:30Z) - Relative Distributed Formation and Obstacle Avoidance with Multi-agent
Reinforcement Learning [20.401609420707867]
マルチエージェント強化学習(MARL)に基づく分散生成・障害物回避手法を提案する。
提案手法は, 障害物回避における生成誤差, 生成収束率, オンパー成功率に関して, ベースラインと比較して高い性能を実現する。
論文 参考訳(メタデータ) (2021-11-14T13:02:45Z) - Locality Matters: A Scalable Value Decomposition Approach for
Cooperative Multi-Agent Reinforcement Learning [52.7873574425376]
協調型マルチエージェント強化学習(MARL)は,エージェント数で指数関数的に大きい状態空間と動作空間により,スケーラビリティの問題に直面する。
本稿では,学習分散実行パラダイムに局所報酬を組み込んだ,新しい価値に基づくマルチエージェントアルゴリズム LOMAQ を提案する。
論文 参考訳(メタデータ) (2021-09-22T10:08:15Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z) - F2A2: Flexible Fully-decentralized Approximate Actor-critic for
Cooperative Multi-agent Reinforcement Learning [110.35516334788687]
分散マルチエージェント強化学習アルゴリズムは複雑なアプリケーションでは実践的でないことがある。
本稿では,大規模で汎用的なマルチエージェント設定を扱える,柔軟な完全分散型アクター批判型MARLフレームワークを提案する。
当社のフレームワークは,大規模環境におけるスケーラビリティと安定性を実現し,情報伝達を低減できる。
論文 参考訳(メタデータ) (2020-04-17T14:56:29Z) - Monotonic Value Function Factorisation for Deep Multi-Agent
Reinforcement Learning [55.20040781688844]
QMIXは、中央集権的なエンドツーエンドで分散ポリシーをトレーニングできる新しい価値ベースの手法である。
深層多エージェント強化学習のための新しいベンチマークとして,StarCraft Multi-Agent Challenge (SMAC)を提案する。
論文 参考訳(メタデータ) (2020-03-19T16:51:51Z) - FACMAC: Factored Multi-Agent Centralised Policy Gradients [103.30380537282517]
FACtored Multi-Agent Centralized Policy gradients (FACMAC)を提案する。
離散的および連続的な行動空間における協調的マルチエージェント強化学習のための新しい手法である。
我々は,マルチエージェント粒子環境の変動に対するFACMAC,新しいマルチエージェント MuJoCo ベンチマーク,およびStarCraft II マイクロマネジメントタスクの挑戦的セットについて評価した。
論文 参考訳(メタデータ) (2020-03-14T21:29:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。