論文の概要: Reinforcement Learning for Mean Field Games with Strategic
Complementarities
- arxiv url: http://arxiv.org/abs/2006.11683v3
- Date: Mon, 1 Feb 2021 17:14:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 12:40:43.011844
- Title: Reinforcement Learning for Mean Field Games with Strategic
Complementarities
- Title(参考訳): 戦略的相補性を持つ平均場ゲームのための強化学習
- Authors: Kiyeob Lee, Desik Rengarajan, Dileep Kalathil, Srinivas Shakkottai
- Abstract要約: 我々は、Trembling-Hand-Perfect MFE(T-MFE)と呼ぶ平衡概念を自然に洗練する。
本稿では,T-MFEを既知のモデルで計算する簡単なアルゴリズムを提案する。
また、T-MFE学習のためのモデルフリーおよびモデルベースアプローチを導入し、両方のアルゴリズムの複雑なサンプルを提供する。
- 参考スコア(独自算出の注目度): 10.281006908092932
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mean Field Games (MFG) are the class of games with a very large number of
agents and the standard equilibrium concept is a Mean Field Equilibrium (MFE).
Algorithms for learning MFE in dynamic MFGs are unknown in general. Our focus
is on an important subclass that possess a monotonicity property called
Strategic Complementarities (MFG-SC). We introduce a natural refinement to the
equilibrium concept that we call Trembling-Hand-Perfect MFE (T-MFE), which
allows agents to employ a measure of randomization while accounting for the
impact of such randomization on their payoffs. We propose a simple algorithm
for computing T-MFE under a known model. We also introduce a model-free and a
model-based approach to learning T-MFE and provide sample complexities of both
algorithms. We also develop a fully online learning scheme that obviates the
need for a simulator. Finally, we empirically evaluate the performance of the
proposed algorithms via examples motivated by real-world applications.
- Abstract(参考訳): 平均場ゲーム (Mean Field Games, MFG) は、非常に多数のエージェントを持つゲームのクラスであり、標準平衡の概念は平均場平衡 (Mean Field Equilibrium, MFE) である。
動的MFGにおけるMFE学習アルゴリズムは一般には知られていない。
我々の焦点は、MFG-SC(Strategic Complementarities)と呼ばれる単調性を持つ重要なサブクラスである。
本稿では,Trembling-Hand-Perfect MFE (T-MFE) と呼ばれる平衡概念を自然に改良し,エージェントがランダム化の尺度を用いて,そのようなランダム化がペイオフに与える影響を考察する。
本稿では,T-MFEを既知のモデルで計算する簡単なアルゴリズムを提案する。
また、T-MFE学習のためのモデルフリーおよびモデルベースアプローチを導入し、両方のアルゴリズムの複雑なサンプルを提供する。
また,シミュレータの必要性を緩和する完全オンライン学習方式も開発した。
最後に,実世界の応用に動機づけられた実例を用いて,提案アルゴリズムの性能を実証的に評価する。
関連論文リスト
- Provably Efficient Information-Directed Sampling Algorithms for Multi-Agent Reinforcement Learning [50.92957910121088]
本研究は,情報指向サンプリング(IDS)の原理に基づくマルチエージェント強化学習(MARL)のための新しいアルゴリズムの設計と解析を行う。
エピソディックな2プレーヤゼロサムMGに対して、ナッシュ平衡を学習するための3つのサンプル効率アルゴリズムを提案する。
我々は、Reg-MAIDSをマルチプレイヤー汎用MGに拡張し、ナッシュ平衡または粗相関平衡をサンプル効率良く学習できることを証明する。
論文 参考訳(メタデータ) (2024-04-30T06:48:56Z) - Model-Based RL for Mean-Field Games is not Statistically Harder than Single-Agent RL [57.745700271150454]
モデルに基づく関数近似を用いた平均フィールドゲーム(MFG)における強化学習のサンプル複雑性について検討した。
本稿では、モデルクラスの複雑性を特徴付けるためのより効果的な概念である部分モデルベースエルダー次元(P-MBED)を紹介する。
論文 参考訳(メタデータ) (2024-02-08T14:54:47Z) - MAT: Mixed-Strategy Game of Adversarial Training in Fine-tuning [20.167933675945324]
そこで本研究では,対戦型学習のためのMixed-Strategy Adrial Training Algorithm (MAT)を提案する。
MAT は、GLUE と ANLI のベンチマークにおいて、一般化と堅牢性の観点から、最先端の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2023-06-27T23:19:53Z) - On the Statistical Efficiency of Mean-Field Reinforcement Learning with General Function Approximation [20.66437196305357]
平均フィールド制御(MFC)および平均フィールドゲーム(MFG)における強化学習の基本統計的効率を一般モデルに基づく関数近似を用いて検討する。
我々は平均場モデルクラス固有の複雑さを特徴付ける平均場モデルベースエルダー次元(MF-MBED)という新しい概念を導入する。
論文 参考訳(メタデータ) (2023-05-18T20:00:04Z) - Scalable Deep Reinforcement Learning Algorithms for Mean Field Games [60.550128966505625]
平均フィールドゲーム (MFGs) は、非常に多くの戦略エージェントを持つゲームを効率的に近似するために導入された。
近年,モデルフリー強化学習(RL)手法を用いて,MFGの学習均衡の課題が活発化している。
MFGを解くための既存のアルゴリズムは戦略や$q$-valuesのような近似量の混合を必要とする。
本稿では,この欠点に対処する2つの手法を提案する。まず,歴史データの蒸留からニューラルネットワークへの混合戦略を学習し,Factitious Playアルゴリズムに適用する。
2つ目はオンライン混合方式である。
論文 参考訳(メタデータ) (2022-03-22T18:10:32Z) - Efficient Model-based Multi-agent Reinforcement Learning via Optimistic
Equilibrium Computation [93.52573037053449]
H-MARL (Hallucinated Multi-Agent Reinforcement Learning) は,環境と数回交流した後の平衡政策を学習する。
自律運転シミュレーションベンチマークにおいて,本手法を実験的に実証した。
論文 参考訳(メタデータ) (2022-03-14T17:24:03Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z) - Reinforcement Learning for Mean Field Games, with Applications to
Economics [0.0]
平均場ゲーム(MFG)および平均場制御問題(平均場制御問題、平均場制御問題、平均場制御問題、平均場制御問題、平均場制御問題、平均場制御問題、平均場制御問題)は、エージェントの連続体を持つゲームにおいてナッシュ平衡または社会的最適性を研究するためのフレームワークである。
本稿では,MFGとMFCのためのRLを用いた2つの時間スケールアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-25T16:45:04Z) - Adversarial Inverse Reinforcement Learning for Mean Field Games [17.392418397388823]
平均場ゲーム(MFG)は、大規模マルチエージェントシステムをモデル化するための数学的に抽出可能なフレームワークを提供する。
本稿では,実証における不確実性に対処可能な新しいフレームワーク,Mean-Field Adversarial IRL(MF-AIRL)を提案する。
論文 参考訳(メタデータ) (2021-04-29T21:03:49Z) - Model-free Representation Learning and Exploration in Low-rank MDPs [64.72023662543363]
低位mdpに対して,最初のモデルフリー表現学習アルゴリズムを提案する。
主要なアルゴリズムの貢献は新しいミニマックス表現の学習の目的です。
結果は複雑な環境にスケールする一般的な関数近似を収容できます。
論文 参考訳(メタデータ) (2021-02-14T00:06:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。