論文の概要: Toward Risk-based Optimistic Exploration for Cooperative Multi-Agent
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2303.01768v1
- Date: Fri, 3 Mar 2023 08:17:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-06 15:52:08.876295
- Title: Toward Risk-based Optimistic Exploration for Cooperative Multi-Agent
Reinforcement Learning
- Title(参考訳): 協調型マルチエージェント強化学習のためのリスクベース最適探索に向けて
- Authors: Jihwan Oh, Joonkee Kim, Minchan Jeong, Se-Young Yun
- Abstract要約: 分布のサンプリング領域をシフトさせることにより協調的に楽観的な行動をもたらすリスクベースの探索を提案する。
本手法は, 量子レグレッションに基づく協調探索を必要とするマルチエージェント環境において, 顕著な性能を示す。
- 参考スコア(独自算出の注目度): 9.290757451344673
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The multi-agent setting is intricate and unpredictable since the behaviors of
multiple agents influence one another. To address this environmental
uncertainty, distributional reinforcement learning algorithms that incorporate
uncertainty via distributional output have been integrated with multi-agent
reinforcement learning (MARL) methods, achieving state-of-the-art performance.
However, distributional MARL algorithms still rely on the traditional
$\epsilon$-greedy, which does not take cooperative strategy into account. In
this paper, we present a risk-based exploration that leads to collaboratively
optimistic behavior by shifting the sampling region of distribution. Initially,
we take expectations from the upper quantiles of state-action values for
exploration, which are optimistic actions, and gradually shift the sampling
region of quantiles to the full distribution for exploitation. By ensuring that
each agent is exposed to the same level of risk, we can force them to take
cooperatively optimistic actions. Our method shows remarkable performance in
multi-agent settings requiring cooperative exploration based on quantile
regression appropriately controlling the level of risk.
- Abstract(参考訳): 複数のエージェントの挙動が互いに影響するため、マルチエージェントの設定は複雑で予測不可能である。
このような環境不確実性に対処するため、分布出力による不確実性を含む分散強化学習アルゴリズムをマルチエージェント強化学習(MARL)手法に統合し、最先端の性能を実現する。
しかしながら、分配的marlアルゴリズムは、協調戦略を考慮していない従来の$\epsilon$-greedyに依存している。
本稿では,分布のサンプリング領域をシフトすることで協調的に楽観的な行動につながるリスクベースの探索を提案する。
当初は、楽観的な行動である探索のための状態-作用値の上位量子化から期待され、徐々に量子化のサンプリング領域を、利用のために全分布にシフトする。
各エージェントが同じレベルのリスクにさらされることを保証することで、協力的に楽観的な行動を取るように強制することができる。
本手法は,リスクレベルを適切に制御した定量回帰に基づく協調探索を必要とするマルチエージェント環境での顕著な性能を示す。
関連論文リスト
- From Novice to Expert: LLM Agent Policy Optimization via Step-wise Reinforcement Learning [62.54484062185869]
本稿では,エージェントの強化学習プロセスの最適化にステップワイド報酬を利用するStepAgentを紹介する。
エージェント反射とポリシー調整を容易にする暗黙の逆・逆の強化学習手法を提案する。
論文 参考訳(メタデータ) (2024-11-06T10:35:11Z) - Pitfall of Optimism: Distributional Reinforcement Learning by
Randomizing Risk Criterion [9.35556128467037]
本稿では,リスクの一方的な傾向を避けるために,リスク基準のランダム化によって行動を選択する新しい分散強化学習アルゴリズムを提案する。
理論的結果は,提案手法がバイアス探索に該当せず,最適回帰に収束することが保証されていることを裏付けるものである。
論文 参考訳(メタデータ) (2023-10-25T10:53:04Z) - Mimicking Better by Matching the Approximate Action Distribution [48.95048003354255]
そこで我々は,Imitation Learning from Observationsのための新しい,サンプル効率の高いオンライン政治アルゴリズムMAADを紹介する。
我々は、専門家のパフォーマンスを達成するためには、かなり少ないインタラクションが必要であり、現在最先端の政治手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-16T12:43:47Z) - Context-Aware Bayesian Network Actor-Critic Methods for Cooperative
Multi-Agent Reinforcement Learning [7.784991832712813]
本稿では, エージェントの行動選択の相関関係を, 共同政策に導入するベイズネットワークを提案する。
本研究では,コンテキスト認識型ベイズ型ネットワークポリシを学習するための実用的なアルゴリズムを開発した。
MARLベンチマークの実証結果は,我々のアプローチの利点を示している。
論文 参考訳(メタデータ) (2023-06-02T21:22:27Z) - Achieving Fairness in Multi-Agent Markov Decision Processes Using
Reinforcement Learning [30.605881670761853]
有限水平エピソードMDPにおける公平性を実現するための強化学習手法を提案する。
このようなアプローチは、エピソード数の観点から、サブ線形後悔を実現することを示す。
論文 参考訳(メタデータ) (2023-06-01T03:43:53Z) - Risk Perspective Exploration in Distributional Reinforcement Learning [10.441880303257468]
リスクレベルでのリスクレベルと楽観的な振る舞いを探索するリスクスケジューリング手法を提案する。
マルチエージェント環境でのリスクスケジューリングを用いたDMIXアルゴリズムの性能向上を示す。
論文 参考訳(メタデータ) (2022-06-28T17:37:34Z) - Efficient Model-based Multi-agent Reinforcement Learning via Optimistic
Equilibrium Computation [93.52573037053449]
H-MARL (Hallucinated Multi-Agent Reinforcement Learning) は,環境と数回交流した後の平衡政策を学習する。
自律運転シミュレーションベンチマークにおいて,本手法を実験的に実証した。
論文 参考訳(メタデータ) (2022-03-14T17:24:03Z) - Convergence Rates of Average-Reward Multi-agent Reinforcement Learning
via Randomized Linear Programming [41.30044824711509]
我々は,グローバル報酬が地域報酬の総和であり,共同政策がエージェントの限界と州全体の可観測性に分解される場合に焦点を当てる。
エージェントが局所的なサドル点問題を解き、局所的な重み付き平均化を行うマルチエージェント拡張を開発する。
準グロブリー最適解を得るためのサンプルの複雑さは、状態空間と作用空間の濃度に対する厳密な依存と一致することを確かめる。
論文 参考訳(メタデータ) (2021-10-22T03:48:41Z) - Locality Matters: A Scalable Value Decomposition Approach for
Cooperative Multi-Agent Reinforcement Learning [52.7873574425376]
協調型マルチエージェント強化学習(MARL)は,エージェント数で指数関数的に大きい状態空間と動作空間により,スケーラビリティの問題に直面する。
本稿では,学習分散実行パラダイムに局所報酬を組み込んだ,新しい価値に基づくマルチエージェントアルゴリズム LOMAQ を提案する。
論文 参考訳(メタデータ) (2021-09-22T10:08:15Z) - Permutation Invariant Policy Optimization for Mean-Field Multi-Agent
Reinforcement Learning: A Principled Approach [128.62787284435007]
本稿では,平均場近似ポリシ最適化(MF-PPO)アルゴリズムを提案する。
我々は,MF-PPOが収束のサブ線形速度で世界的最適政策を達成することを証明した。
特に、置換不変ニューラルアーキテクチャによって引き起こされる誘導バイアスは、MF-PPOが既存の競合より優れていることを示す。
論文 参考訳(メタデータ) (2021-05-18T04:35:41Z) - Randomized Entity-wise Factorization for Multi-Agent Reinforcement
Learning [59.62721526353915]
実世界のマルチエージェント設定は、エージェントや非エージェントエンティティのタイプや量が異なるタスクを伴うことが多い。
我々の方法は、これらの共通点を活用することを目的としており、「観察対象のランダムに選択されたサブグループのみを考えるとき、各エージェントが期待する効用は何か?」という問いを投げかける。
論文 参考訳(メタデータ) (2020-06-07T18:28:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。