論文の概要: Learning Macroeconomic Policies based on Microfoundations: A Stackelberg Mean Field Game Approach
- arxiv url: http://arxiv.org/abs/2403.12093v1
- Date: Thu, 14 Mar 2024 13:22:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-20 18:51:33.916337
- Title: Learning Macroeconomic Policies based on Microfoundations: A Stackelberg Mean Field Game Approach
- Title(参考訳): マイクロファウンデーションに基づくマクロ経済政策の学習:Stackelberg平均フィールドゲームアプローチ
- Authors: Qirui Mi, Zhiyu Zhao, Siyu Xia, Yan Song, Jun Wang, Haifeng Zhang,
- Abstract要約: 本稿は、textitStackelberg Mean Field Game (SMFG)に基づく最適マクロ経済政策問題をモデル化する。
また,実データに対する事前学習とモデルフリーなtextitStackelberg平均場強化学習(SMFRL)アルゴリズムを取り入れたSMFGの解を提案する。
実験の結果,SMFG法が他の経済政策よりも性能,効率・等価トレードオフ,SMFGの仮定分析において優れていることが示された。
- 参考スコア(独自算出の注目度): 13.92769744834052
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Effective macroeconomic policies play a crucial role in promoting economic growth and social stability. This paper models the optimal macroeconomic policy problem based on the \textit{Stackelberg Mean Field Game} (SMFG), where the government acts as the leader in policy-making, and large-scale households dynamically respond as followers. This modeling method captures the asymmetric dynamic game between the government and large-scale households, and interpretably evaluates the effects of macroeconomic policies based on microfoundations, which is difficult for existing methods to achieve. We also propose a solution for SMFGs, incorporating pre-training on real data and a model-free \textit{Stackelberg mean-field reinforcement learning }(SMFRL) algorithm, which operates independently of prior environmental knowledge and transitions. Our experimental results showcase the superiority of the SMFG method over other economic policies in terms of performance, efficiency-equity tradeoff, and SMFG assumption analysis. This paper significantly contributes to the domain of AI for economics by providing a powerful tool for modeling and solving optimal macroeconomic policies.
- Abstract(参考訳): 効果的なマクロ経済政策は経済成長と社会安定を促進する上で重要な役割を担っている。
本稿では,政策立案のリーダーとして政府が行動する「textit{Stackelberg Mean Field Game} (SMFG) に基づく最適マクロ経済政策問題をモデル化する。
このモデリング手法は、政府と大規模世帯間の非対称なダイナミックゲームをキャプチャし、既存の手法では達成が難しいマイクロファウンデーションに基づくマクロ経済政策の効果を解釈的に評価する。
また,実データに事前学習を組み込んだSMFGの解法と,事前の環境知識や遷移から独立して動作するモデルフリーな \textit{Stackelberg mean-field reinforcement learning (SMFRL) アルゴリズムを提案する。
実験の結果,SMFG法が他の経済政策よりも性能,効率・等価トレードオフ,SMFGの仮定分析において優れていることが示された。
本稿では,最適マクロ経済政策をモデル化し,解決するための強力なツールを提供することで,経済学におけるAI分野に大きく貢献する。
関連論文リスト
- A Multi-agent Market Model Can Explain the Impact of AI Traders in Financial Markets -- A New Microfoundations of GARCH model [3.655221783356311]
本稿では,ノイズトレーダー,基本トレーダー,AIトレーダーの3種類のエージェントを組み込んだマルチエージェント市場モデルを提案する。
我々は,このモデルをマルチエージェントシミュレーションにより検証し,金融市場のスタイル化された事実を再現する能力を確認した。
論文 参考訳(メタデータ) (2024-09-19T07:14:13Z) - Evaluating Real-World Robot Manipulation Policies in Simulation [91.55267186958892]
実環境と模擬環境の制御と視覚的格差は、信頼性のある模擬評価の鍵となる課題である。
実環境に完全忠実なデジタル双生児を作らなくても、これらのギャップを軽減できる手法を提案する。
シミュレーション環境の集合体であるSIMPLERを作成した。
論文 参考訳(メタデータ) (2024-05-09T17:30:16Z) - Simulating the Economic Impact of Rationality through Reinforcement Learning and Agent-Based Modelling [1.7546137756031712]
我々はエージェントベースモデル(ABM)の能力を拡大するためにマルチエージェント強化学習(RL)を活用している。
RLエージェントは、市場競争のレベルと合理性に応じて、利益を最大化するための3つの異なる戦略を自発的に学習することを示します。
また、独立した政策を持つRLエージェントと、相互にコミュニケーションする能力のないエージェントは、自発的に異なる戦略グループに分離することを学び、市場力と全体的な利益を増大させます。
論文 参考訳(メタデータ) (2024-05-03T15:08:25Z) - Finding Regularized Competitive Equilibria of Heterogeneous Agent
Macroeconomic Models with Reinforcement Learning [151.03738099494765]
労働市場に参入する世帯や企業を無限に数える異種エージェントマクロ経済モデルについて検討する。
本稿では,モデルの正規化競争均衡を求めるデータ駆動強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-24T17:16:27Z) - Latent State Marginalization as a Low-cost Approach for Improving
Exploration [79.12247903178934]
我々はMaxEntフレームワークにおける潜在変数ポリシーの採用を提案する。
我々は、潜在変数ポリシーが、潜在信念状態を持つ世界モデルの下で自然に現れることを示す。
提案手法を連続制御タスクに対して実験的に検証し, 有効限界化がよりよい探索とより堅牢な訓練につながることを示した。
論文 参考訳(メタデータ) (2022-10-03T15:09:12Z) - Weak Supervision in Analysis of News: Application to Economic Policy
Uncertainty [0.0]
我々の研究は、経済政策の不確実性(EPU)を測定するためのテキストデータ、特にニュース作品の可能性の研究に焦点を当てている。
経済政策の不確実性は、新しい政策と将来の経済基本の下で、決定の結果を予測できないと定義されている。
本研究は、経済政策の不確実性に関して、ニュース記事の分類を弱くする機械学習ベースのソリューションを提案する。
論文 参考訳(メタデータ) (2022-08-10T09:08:29Z) - Building a Foundation for Data-Driven, Interpretable, and Robust Policy
Design using the AI Economist [67.08543240320756]
AIエコノミストフレームワークは,2段階強化学習とデータ駆動型シミュレーションを用いて,効果的な,柔軟な,解釈可能なポリシー設計を可能にする。
RLを用いて訓練されたログリニア政策は、過去の結果と比較して、公衆衛生と経済の両面から社会福祉を著しく改善することがわかった。
論文 参考訳(メタデータ) (2021-08-06T01:30:41Z) - The AI Economist: Optimal Economic Policy Design via Two-level Deep
Reinforcement Learning [126.37520136341094]
機械学習に基づく経済シミュレーションは強力な政策・メカニズム設計の枠組みであることを示す。
AIエコノミスト(AI Economist)は、エージェントと共同適応するソーシャルプランナーの両方を訓練する2段階のディープRLフレームワークである。
単純な一段階の経済では、AIエコノミストは経済理論の最適税制を回復する。
論文 参考訳(メタデータ) (2021-08-05T17:42:35Z) - ERMAS: Becoming Robust to Reward Function Sim-to-Real Gaps in
Multi-Agent Simulations [110.72725220033983]
Epsilon-Robust Multi-Agent Simulation (ERMAS)は、このようなマルチエージェントのsim-to-realギャップに対して堅牢なAIポリシーを学ぶためのフレームワークである。
ERMASは、エージェントリスク回避の変化に対して堅牢な税政策を学び、複雑な時間シミュレーションで最大15%社会福祉を改善する。
特に、ERMASは、エージェントリスク回避の変化に対して堅牢な税制政策を学び、複雑な時間シミュレーションにおいて、社会福祉を最大15%改善する。
論文 参考訳(メタデータ) (2021-06-10T04:32:20Z) - MPC-based Reinforcement Learning for Economic Problems with Application
to Battery Storage [0.0]
モデル予測制御(MPC)に基づく政策近似に焦点を当てます。
政策勾配法は,政策が(ほぼ)バンバン構造を持つ場合,政策パラメータに意味のあるステップを生じさせることに苦慮する。
本稿では,内点法に基づくホモトピー戦略を提案し,学習中に方針を緩和する。
論文 参考訳(メタデータ) (2021-04-06T10:37:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。