論文の概要: Reinforcement Learning for Mean Field Games, with Applications to
Economics
- arxiv url: http://arxiv.org/abs/2106.13755v1
- Date: Fri, 25 Jun 2021 16:45:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-28 12:56:03.651171
- Title: Reinforcement Learning for Mean Field Games, with Applications to
Economics
- Title(参考訳): 平均フィールドゲームのための強化学習と経済学への応用
- Authors: Andrea Angiuli and Jean-Pierre Fouque and Mathieu Lauriere
- Abstract要約: 平均場ゲーム(MFG)および平均場制御問題(平均場制御問題、平均場制御問題、平均場制御問題、平均場制御問題、平均場制御問題、平均場制御問題、平均場制御問題)は、エージェントの連続体を持つゲームにおいてナッシュ平衡または社会的最適性を研究するためのフレームワークである。
本稿では,MFGとMFCのためのRLを用いた2つの時間スケールアプローチを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mean field games (MFG) and mean field control problems (MFC) are frameworks
to study Nash equilibria or social optima in games with a continuum of agents.
These problems can be used to approximate competitive or cooperative games with
a large finite number of agents and have found a broad range of applications,
in particular in economics. In recent years, the question of learning in MFG
and MFC has garnered interest, both as a way to compute solutions and as a way
to model how large populations of learners converge to an equilibrium. Of
particular interest is the setting where the agents do not know the model,
which leads to the development of reinforcement learning (RL) methods. After
reviewing the literature on this topic, we present a two timescale approach
with RL for MFG and MFC, which relies on a unified Q-learning algorithm. The
main novelty of this method is to simultaneously update an action-value
function and a distribution but with different rates, in a model-free fashion.
Depending on the ratio of the two learning rates, the algorithm learns either
the MFG or the MFC solution. To illustrate this method, we apply it to a mean
field problem of accumulated consumption in finite horizon with HARA utility
function, and to a trader's optimal liquidation problem.
- Abstract(参考訳): 平均場ゲーム (mfg) と平均場制御問題 (mfc) は、エージェントの連続体を持つゲームにおけるnash平衡や社会光学を研究するためのフレームワークである。
これらの問題は、大きな有限個のエージェントによる競争的または協調的なゲーム近似に利用することができ、特に経済学において幅広い応用を見いだすことができる。
近年、MFGとMFCにおける学習の問題は、解を計算する方法と、学習者の大多数が均衡にどのように収束するかをモデル化する方法の両方として関心を集めている。
特に興味深いのは、エージェントがモデルを知らない設定であり、これは強化学習(rl)メソッドの開発につながる。
このトピックに関する文献をレビューした後、統一的なQ-ラーニングアルゴリズムに依存するMFGとMFCのためのRLを用いた2つのタイムスケールアプローチを提案する。
この手法の主な目新しさは、アクション値関数と分布を同時に更新するが、異なるレートでモデルフリーで更新することである。
2つの学習率の比率に応じて、アルゴリズムはMFGまたはMFCソリューションのいずれかを学習する。
この方法を説明するために,原ユーティリティ関数を用いた有限方向の累積消費の平均場問題と,トレーダの最適清算問題に適用する。
関連論文リスト
- Provably Efficient Information-Directed Sampling Algorithms for Multi-Agent Reinforcement Learning [50.92957910121088]
本研究は,情報指向サンプリング(IDS)の原理に基づくマルチエージェント強化学習(MARL)のための新しいアルゴリズムの設計と解析を行う。
エピソディックな2プレーヤゼロサムMGに対して、ナッシュ平衡を学習するための3つのサンプル効率アルゴリズムを提案する。
我々は、Reg-MAIDSをマルチプレイヤー汎用MGに拡張し、ナッシュ平衡または粗相関平衡をサンプル効率良く学習できることを証明する。
論文 参考訳(メタデータ) (2024-04-30T06:48:56Z) - Model-Based RL for Mean-Field Games is not Statistically Harder than Single-Agent RL [57.745700271150454]
モデルに基づく関数近似を用いた平均フィールドゲーム(MFG)における強化学習のサンプル複雑性について検討した。
本稿では、モデルクラスの複雑性を特徴付けるためのより効果的な概念である部分モデルベースエルダー次元(P-MBED)を紹介する。
論文 参考訳(メタデータ) (2024-02-08T14:54:47Z) - Regularization of the policy updates for stabilizing Mean Field Games [0.2348805691644085]
本研究は,非協調型マルチエージェント強化学習(MARL)の研究である。
複数のエージェントが同じ環境で相互作用し、個々のリターンを最大化するMARL。
提案アルゴリズムは,MF-PPO (Mean Field Proximal Policy Optimization) と命名し,OpenSpielフレームワークにおける提案手法の有効性を実証的に示す。
論文 参考訳(メタデータ) (2023-04-04T05:45:42Z) - Learning in Mean Field Games: A Survey [44.154293801251505]
平均フィールドゲームズ(MFG)は、プレイヤーの数を無限に増やすために平均フィールド近似に依存する。
MFGにおけるリベリアと社会的最適化のための強化学習法に関する最近の研究
本稿では,MFGを正確に解くための古典的反復法に関する一般的な枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-25T17:49:37Z) - Scalable Deep Reinforcement Learning Algorithms for Mean Field Games [60.550128966505625]
平均フィールドゲーム (MFGs) は、非常に多くの戦略エージェントを持つゲームを効率的に近似するために導入された。
近年,モデルフリー強化学習(RL)手法を用いて,MFGの学習均衡の課題が活発化している。
MFGを解くための既存のアルゴリズムは戦略や$q$-valuesのような近似量の混合を必要とする。
本稿では,この欠点に対処する2つの手法を提案する。まず,歴史データの蒸留からニューラルネットワークへの混合戦略を学習し,Factitious Playアルゴリズムに適用する。
2つ目はオンライン混合方式である。
論文 参考訳(メタデータ) (2022-03-22T18:10:32Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z) - Concave Utility Reinforcement Learning: the Mean-field Game viewpoint [42.403650997341806]
Concave Utility Reinforcement Learning (CURL) は、エージェントのポリシーによって引き起こされる占有度測定において、線形から凹凸ユーティリティまでRLを拡張する。
このより一般的なパラダイムは、古典的なベルマン方程式を無効にし、新しいアルゴリズムを要求する。
CURLは平均フィールドゲーム(MFG)のサブクラスであることを示す。
論文 参考訳(メタデータ) (2021-06-07T16:51:07Z) - Global Convergence of Policy Gradient for Linear-Quadratic Mean-Field
Control/Game in Continuous Time [109.06623773924737]
線形二乗平均場制御とゲームに対するポリシー勾配法について検討する。
線形速度で最適解に収束し, 合成シミュレーションにより検証した。
論文 参考訳(メタデータ) (2020-08-16T06:34:11Z) - Unified Reinforcement Q-Learning for Mean Field Game and Control
Problems [0.0]
本稿では、無限水平平均場ゲーム(MFG)と平均場制御(MFC)問題を解決するために強化学習(RL)アルゴリズムを提案する。
このアルゴリズムは,2つの学習パラメータの比率を単純に調整することで,MFGとMFCのどちらでも学習することができる。
論文 参考訳(メタデータ) (2020-06-24T17:45:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。