論文の概要: Cooperative Online Learning in Stochastic and Adversarial MDPs
- arxiv url: http://arxiv.org/abs/2201.13170v1
- Date: Mon, 31 Jan 2022 12:32:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-01 17:32:01.967813
- Title: Cooperative Online Learning in Stochastic and Adversarial MDPs
- Title(参考訳): 確率的・敵対的MDPにおける協調的オンライン学習
- Authors: Tal Lancewicki and Aviv Rosenberg and Yishay Mansour
- Abstract要約: 我々は、協調的オンライン学習と敵対的マルコフ決定過程(MDP)について研究する。
各エピソードでは、$m$エージェントが同時にMDPと対話し、個人の後悔を最小限に抑えるために情報を共有する。
協調強化学習(RL)を非フレッシュランダム性, あるいは敵対的MDPで検討したのは, 初めてである。
- 参考スコア(独自算出の注目度): 50.62439652257712
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study cooperative online learning in stochastic and adversarial Markov
decision process (MDP). That is, in each episode, $m$ agents interact with an
MDP simultaneously and share information in order to minimize their individual
regret. We consider environments with two types of randomness: \emph{fresh} --
where each agent's trajectory is sampled i.i.d, and \emph{non-fresh} -- where
the realization is shared by all agents (but each agent's trajectory is also
affected by its own actions). More precisely, with non-fresh randomness the
realization of every cost and transition is fixed at the start of each episode,
and agents that take the same action in the same state at the same time observe
the same cost and next state. We thoroughly analyze all relevant settings,
highlight the challenges and differences between the models, and prove
nearly-matching regret lower and upper bounds. To our knowledge, we are the
first to consider cooperative reinforcement learning (RL) with either non-fresh
randomness or in adversarial MDPs.
- Abstract(参考訳): 我々は,確率的および敵対的マルコフ決定過程(MDP)における協調的オンライン学習について検討した。
つまり、各エピソードで$m$エージェントが同時にMDPと対話し、個々の後悔を最小限に抑えるために情報を共有する。
emph{fresh} - それぞれのエージェントの軌道をサンプル化した場合、emph{non-fresh} -- すべてのエージェントによって実現が共有される(ただし、それぞれのエージェントの軌道は、そのアクションによっても影響を受ける)。
より正確には、非フレッシュランダム性では、各エピソードの開始時に全てのコストと遷移の実現が固定され、同時に同じ状態のエージェントが同じコストと次の状態を観察する。
関連するすべての設定を徹底的に分析し、モデル間の課題と相違点を強調し、ほぼ一致した後悔と上限を証明します。
我々の知る限り、我々は非フレッシュランダム性または敵対的MDPによる協調強化学習(RL)を初めて検討している。
関連論文リスト
- Causal Coordinated Concurrent Reinforcement Learning [8.654978787096807]
本稿では,データ共有と協調探索のための新しいアルゴリズムフレームワークを提案する。
本アルゴリズムは,独立規制による個人差分制御モデルパラメータの抽出において,付加雑音モデル-混合モデル(ANM-MM)という形で因果推論アルゴリズムを利用する。
抽出したモデルパラメータの類似度に基づく新しいデータ共有方式を提案し, 自己回帰, 振り子, カートポールのスイングアップタスクのセットにおいて, 優れた学習速度を示す。
論文 参考訳(メタデータ) (2024-01-31T17:20:28Z) - Stochastic Principal-Agent Problems: Efficient Computation and Learning [25.637633553882985]
プリンシパルとエージェントは環境の中で相互作用し、それぞれが互いに利用できない状態に関する観察を行う。
このモデルは、特殊ケースワイドフォームゲーム(EFG)を包含し、マルコフ決定プロセス(POMDP)のゲームにアプローチする。
遷移確率が未知のエピソード強化学習環境において,効率的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-06T16:20:44Z) - Multiagent Inverse Reinforcement Learning via Theory of Mind Reasoning [0.0]
我々は,Multiagent Inverse Reinforcement Learning(MIRL)に対する新しいアプローチを提案する。
MIRLは、タスクパフォーマンス中に与えられた各チームの振る舞いの軌跡を導く報酬関数を推論することを目的としている。
シミュレーション2-player search-and-rescue 動作におけるアプローチの評価を行った。
論文 参考訳(メタデータ) (2023-02-20T19:07:42Z) - Federated Temporal Difference Learning with Linear Function Approximation under Environmental Heterogeneity [44.2308932471393]
モデル推定の交換により,エージェント数の線形収束速度が向上することを示す。
低ヘテロジニティ系では、モデル推定を交換すると、エージェントの数で線形収束速度が向上する。
論文 参考訳(メタデータ) (2023-02-04T17:53:55Z) - Expeditious Saliency-guided Mix-up through Random Gradient Thresholding [89.59134648542042]
混合学習アプローチはディープニューラルネットワークの一般化能力向上に有効であることが証明されている。
本稿では,両経路の分岐点に位置する新しい手法を提案する。
我々はR-Mixという手法を「Random Mix-up」という概念にちなむ。
より良い意思決定プロトコルが存在するかどうかという問題に対処するために、我々は、ミックスアップポリシーを決定する強化学習エージェントを訓練する。
論文 参考訳(メタデータ) (2022-12-09T14:29:57Z) - RPM: Generalizable Behaviors for Multi-Agent Reinforcement Learning [90.43925357575543]
本稿では,MARLポリシーを総合性良く訓練するための多様なマルチエージェントトラジェクトリを収集するために,ランク付けされたポリシーメモリ(RPM)を提案する。
RPMにより、マルチエージェントの一般化評価シナリオと完全なタスクにおいて、MARLエージェントが未確認エージェントと対話することが可能になり、平均402%のパフォーマンスが大幅に向上する。
論文 参考訳(メタデータ) (2022-10-18T07:32:43Z) - Efficient Model-based Multi-agent Reinforcement Learning via Optimistic
Equilibrium Computation [93.52573037053449]
H-MARL (Hallucinated Multi-Agent Reinforcement Learning) は,環境と数回交流した後の平衡政策を学習する。
自律運転シミュレーションベンチマークにおいて,本手法を実験的に実証した。
論文 参考訳(メタデータ) (2022-03-14T17:24:03Z) - MMD-MIX: Value Function Factorisation with Maximum Mean Discrepancy for
Cooperative Multi-Agent Reinforcement Learning [15.972363414919279]
MMD-mixは分散強化学習と値分解を組み合わせた手法である。
実験により、MDD-mixはStar Multi-Agent Challenge (SMAC)環境において、以前のベースラインよりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-22T10:21:00Z) - PsiPhi-Learning: Reinforcement Learning with Demonstrations using
Successor Features and Inverse Temporal Difference Learning [102.36450942613091]
時間差学習(ITD)と呼ばれる逆強化学習アルゴリズムを提案する。
Psi Phi$-learningと呼ばれるデモで強化学習のための新しいアルゴリズムに到達し、オンライン環境の相互作用から学習とITDをシームレスに統合する方法を示します。
論文 参考訳(メタデータ) (2021-02-24T21:12:09Z) - Dynamic Federated Learning [57.14673504239551]
フェデレートラーニング(Federated Learning)は、マルチエージェント環境における集中的なコーディネーション戦略の包括的用語として登場した。
我々は、各イテレーションにおいて、利用可能なエージェントのランダムなサブセットがそのデータに基づいてローカル更新を実行する、フェデレートされた学習モデルを考える。
集約最適化問題に対する真の最小化器上の非定常ランダムウォークモデルの下で、アーキテクチャの性能は、各エージェントにおけるデータ変動率、各エージェントにおけるモデル変動率、アルゴリズムの学習率に逆比例する追跡項の3つの要因によって決定されることを示す。
論文 参考訳(メタデータ) (2020-02-20T15:00:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。