論文の概要: Structural Reinforcement Learning for Heterogeneous Agent Macroeconomics
- arxiv url: http://arxiv.org/abs/2512.18892v1
- Date: Sun, 21 Dec 2025 21:22:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.544611
- Title: Structural Reinforcement Learning for Heterogeneous Agent Macroeconomics
- Title(参考訳): 異種エージェントマクロ経済学のための構造強化学習
- Authors: Yucheng Yang, Chiyuan Wang, Andreas Schaab, Benjamin Moll,
- Abstract要約: 本稿では, 凝集リスクを伴う異種エージェントモデルを定式化し, 解くための新しいアプローチを提案する。
我々は、クロスセクション分布を、状態変数として低次元価格に置き換え、エージェントがシミュレーションされた経路から直接平衡価格のダイナミクスを学習させる。
- 参考スコア(独自算出の注目度): 2.671234412671843
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a new approach to formulating and solving heterogeneous agent models with aggregate risk. We replace the cross-sectional distribution with low-dimensional prices as state variables and let agents learn equilibrium price dynamics directly from simulated paths. To do so, we introduce a structural reinforcement learning (SRL) method which treats prices via simulation while exploiting agents' structural knowledge of their own individual dynamics. Our SRL method yields a general and highly efficient global solution method for heterogeneous agent models that sidesteps the Master equation and handles problems traditional methods struggle with, in particular nontrivial market-clearing conditions. We illustrate the approach in the Krusell-Smith model, the Huggett model with aggregate shocks, and a HANK model with a forward-looking Phillips curve, all of which we solve globally within minutes.
- Abstract(参考訳): 本稿では, 凝集リスクを伴う異種エージェントモデルを定式化し, 解くための新しいアプローチを提案する。
我々は、クロスセクション分布を、状態変数として低次元価格に置き換え、エージェントがシミュレーションされた経路から直接平衡価格のダイナミクスを学習させる。
そこで本稿では,エージェントの個々のダイナミクスに関する構造的知識を活用しながら,シミュレーションによる価格処理を行う構造的強化学習(SRL)手法を提案する。
我々のSRL法は、マスター方程式をサイドステップし、従来の手法が抱える問題、特に非自明な市場浄化条件に対処するヘテロジニアスエージェントモデルに対して、汎用的で高効率なグローバル解法を導出する。
Krusell-Smithモデル、集合的ショックを持つHuggettモデル、前方のフィリップス曲線を持つHANKモデルにおけるアプローチについて説明する。
関連論文リスト
- From Individual Learning to Market Equilibrium: Correcting Structural and Parametric Biases in RL Simulations of Economic Models [3.036596192442501]
強化学習の経済モデリングへの応用は、均衡理論の仮定と学習エージェントの創発的行動の根本的な矛盾を明らかにする。
本稿ではまず, コンケーブ生成を伴う探索マッチングモデルにおいて, 標準RLエージェントが非平衡な単調なポリシーを学習することを示す。
本稿では, マクロ経済分野に代表エージェントを組み込んだ平均場強化学習フレームワークを提案し, 経済的機会コストを反映したコスト関数の調整を行う。
論文 参考訳(メタデータ) (2025-07-24T09:21:02Z) - Revisiting Multi-Agent World Modeling from a Diffusion-Inspired Perspective [54.77404771454794]
拡散モデルを用いたマルチエージェント強化学習(MARL)のためのフレキシブルで堅牢な世界モデルを開発する。
本手法はDiffusion-Inspired Multi-Agent World Model (DIMA) を用いて,複数のマルチエージェント制御ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2025-05-27T09:11:38Z) - Model Steering: Learning with a Reference Model Improves Generalization Bounds and Scaling Laws [52.10468229008941]
本稿では,戦略データの選択や重み付けを通じて,対象モデルのトレーニングを指導・強化するための基準として,訓練モデルを用いた新たな学習パラダイムを定式化する。
提案手法は,参照モデルを持たないトレーニングと比較して,一般化とデータの効率性を改善する理由に関する理論的知見を提供する。
これらの知見に基づいて,DRRho-CLIPと呼ばれる参照モデルを用いたコントラスト言語-画像事前学習手法を提案する。
論文 参考訳(メタデータ) (2025-05-10T16:55:03Z) - Generative Market Equilibrium Models with Stable Adversarial Learning via Reinforcement [10.35300946640037]
我々は、最小限のモデリング仮定の下で、継続的金融市場均衡を解くための一般的な計算フレームワークを提案する。
GAN(Generative Adversarial Network)に触発された本手法では,新たな生成的深層強化学習フレームワークを採用する。
我々のアルゴリズムは、学習するだけでなく、市場参加者の内在的な取引行動から資産の返却とボラティリティがどのように出現するかを検証可能な予測も提供する。
論文 参考訳(メタデータ) (2025-04-05T23:29:46Z) - Model-Based RL for Mean-Field Games is not Statistically Harder than Single-Agent RL [57.745700271150454]
モデルに基づく関数近似を用いた平均フィールドゲーム(MFG)における強化学習のサンプル複雑性について検討した。
本稿では、モデルクラスの複雑性を特徴付けるためのより効果的な概念である部分モデルベースエルダー次元(P-MBED)を紹介する。
論文 参考訳(メタデータ) (2024-02-08T14:54:47Z) - Learning and Calibrating Heterogeneous Bounded Rational Market Behaviour
with Multi-Agent Reinforcement Learning [4.40301653518681]
エージェントベースモデル(ABM)は、従来の平衡解析と相容れない様々な実世界の現象をモデル化することを約束している。
マルチエージェント強化学習(MARL)の最近の進歩は、合理性の観点からこの問題に対処する方法を提供する。
MARLフレームワーク内で不均一な処理制約を持つエージェントを表現するための新しい手法を提案する。
論文 参考訳(メタデータ) (2024-02-01T17:21:45Z) - When to Update Your Model: Constrained Model-based Reinforcement
Learning [50.74369835934703]
モデルベースRL(MBRL)の非遅延性能保証のための新規で一般的な理論スキームを提案する。
続いて導いた境界は、モデルシフトとパフォーマンス改善の関係を明らかにします。
さらなる例では、動的に変化する探索からの学習モデルが、最終的なリターンの恩恵をもたらすことが示されている。
論文 参考訳(メタデータ) (2022-10-15T17:57:43Z) - Deep Reinforcement Learning in a Monetary Model [5.7742249974375985]
動的一般均衡モデルの解法として深部強化学習を提案する。
エージェントは深層ニューラルネットワークによって表現され、動的最適化問題の解法を学ぶ。
適応学習(adaptive learning)とは対照的に、人工知能の家庭はすべての政策体制においてこのモデルを解決できる。
論文 参考訳(メタデータ) (2021-04-19T14:56:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。