論文の概要: Reinforcement Learning for Monetary Policy Under Macroeconomic Uncertainty: Analyzing Tabular and Function Approximation Methods
- arxiv url: http://arxiv.org/abs/2512.17929v1
- Date: Tue, 09 Dec 2025 19:27:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-29 00:37:57.061154
- Title: Reinforcement Learning for Monetary Policy Under Macroeconomic Uncertainty: Analyzing Tabular and Function Approximation Methods
- Title(参考訳): マクロ経済不確実性下における金融政策の強化学習 : 語彙と関数近似法の分析
- Authors: Sheryl Chen, Tony Wang, Kyle Feinstein,
- Abstract要約: インフレと失業を安定させるために、中央銀行が短期的名目金利を動的に設定する方法について検討する。
我々は、線形ガウス遷移モデルを構築し、離散作用マルコフ決定プロセスを実装した。
我々はTaylor Ruleに対する9つの異なる強化学習スタイルのアプローチと素直なベースラインを比較した。
- 参考スコア(独自算出の注目度): 0.5247013475817127
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study how a central bank should dynamically set short-term nominal interest rates to stabilize inflation and unemployment when macroeconomic relationships are uncertain and time-varying. We model monetary policy as a sequential decision-making problem where the central bank observes macroeconomic conditions quarterly and chooses interest rate adjustments. Using publically accessible historical Federal Reserve Economic Data (FRED), we construct a linear-Gaussian transition model and implement a discrete-action Markov Decision Process with a quadratic loss reward function. We chose to compare nine different reinforcement learning style approaches against Taylor Rule and naive baselines, including tabular Q-learning variants, SARSA, Actor-Critic, Deep Q-Networks, Bayesian Q-learning with uncertainty quantification, and POMDP formulations with partial observability. Surprisingly, standard tabular Q-learning achieved the best performance (-615.13 +- 309.58 mean return), outperforming both enhanced RL methods and traditional policy rules. Our results suggest that while sophisticated RL techniques show promise for monetary policy applications, simpler approaches may be more robust in this domain, highlighting important challenges in applying modern RL to macroeconomic policy.
- Abstract(参考訳): マクロ経済関係が不確実で変動している場合、中央銀行が短期的名目金利を動的に設定してインフレと失業を安定化させる方法について検討する。
我々は、金融政策を、中央銀行が四半期ごとにマクロ経済状況を観察し、金利調整を選択するようなシーケンシャルな意思決定問題としてモデル化する。
公的にアクセス可能な歴史的連邦準備制度経済データ(FRED)を用いて、線形ガウス遷移モデルを構築し、2次的損失報酬関数を持つ離散的なマルコフ決定プロセスを実装する。
我々はTaylor Ruleに対する9種類の強化学習スタイルアプローチと,表型Q-ラーニング,SARSA,Actor-Critic,Deep Q-Networks,不確実な定量化を伴うベイズ的Q-ラーニング,部分的可観測性を備えたPMDP定式化など,ナイーブなベースラインを比較検討した。
驚いたことに、標準的な表形式のQ-ラーニングは最高のパフォーマンス(615.13 +-309.58)を達成し、強化されたRL法と従来のポリシールールの両方を上回りました。
以上の結果から,高度なRL手法は金融政策適用の可能性を示唆するが,この領域ではより単純なアプローチがより堅牢である可能性が示唆され,現代RLをマクロ経済政策に適用する上での重要な課題が浮き彫りにされている。
関連論文リスト
- Financial Decision Making using Reinforcement Learning with Dirichlet Priors and Quantum-Inspired Genetic Optimization [0.0]
本研究では,動的予算配分のための強化学習フレームワークを提案する。
ディリクレにインスパイアされた性質と量子突然変異に基づく遺伝的最適化によって強化されている。
未確認の財政データでは、実際の配分と高い整合性を達成する。
論文 参考訳(メタデータ) (2025-08-27T15:34:21Z) - Can We Reliably Predict the Fed's Next Move? A Multi-Modal Approach to U.S. Monetary Policy Forecasting [2.6396287656676733]
本研究では、構造化データと連邦準備制度の通信からの非構造化テキスト信号を統合することにより、予測精度を向上させることができるかどうかを検討する。
以上の結果から,ハイブリッドモデルは単調なベースラインを一貫して上回ることがわかった。
金融政策予測では、より単純なハイブリッドモデルは正確性と解釈可能性の両方を提供し、研究者と意思決定者に実用的な洞察を提供する。
論文 参考訳(メタデータ) (2025-06-28T05:54:58Z) - Model-Free Robust $φ$-Divergence Reinforcement Learning Using Both Offline and Online Data [16.995406965407003]
本稿では,ロバスト$phi$-regularized fit Q-iteration (RPQ) と呼ばれるモデルフリーアルゴリズムを提案する。
我々はまた、履歴データとオンラインサンプリングの両方を用いて最適なロバストポリシーを学ぶために、$phi$-regularized reinforcement learning frameworkを導入した。
論文 参考訳(メタデータ) (2024-05-08T23:52:37Z) - Data-Driven Merton's Strategies via Policy Randomization [11.774563966512709]
不完全市場におけるメルトンの予測ユーティリティ問題について検討する。
エージェントは、株式とファクターバリューのプロセスにのみアクセス可能な価格取付業者である。
エージェントが特定の分布のクラスに応じてポリシーランダム化を実行することができる補助的問題を提案する。
論文 参考訳(メタデータ) (2023-12-19T02:14:13Z) - Projected Off-Policy Q-Learning (POP-QL) for Stabilizing Offline
Reinforcement Learning [57.83919813698673]
Projected Off-Policy Q-Learning (POP-QL) は、政治外のサンプルを同時に重み付け、分散を防止し、価値近似誤差を減らすためにポリシーを制約する新しいアクタ批判アルゴリズムである。
我々の実験では、POP-QLは標準ベンチマーク上での競合性能を示すだけでなく、データ収集ポリシーがかなり最適化されていないタスクにおいて競合するメソッドよりも優れています。
論文 参考訳(メタデータ) (2023-11-25T00:30:58Z) - Offline Reinforcement Learning with On-Policy Q-Function Regularization [57.09073809901382]
ヒストリーデータセットと所望のポリシー間の分布シフトによって引き起こされる(潜在的に破滅的な)外挿誤差に対処する。
正規化により推定Q-関数を利用する2つのアルゴリズムを提案し、D4RLベンチマークに強い性能を示すことを示す。
論文 参考訳(メタデータ) (2023-07-25T21:38:08Z) - Policy Gradient for Rectangular Robust Markov Decision Processes [62.397882389472564]
我々は,長方形ロバストなマルコフ決定過程(MDP)を効率的に解く政策ベース手法であるロバストなポリシー勾配(RPG)を導入する。
結果のRPGは、非ロバストな等価値と同じ時間のデータから推定することができる。
論文 参考訳(メタデータ) (2023-01-31T12:40:50Z) - Offline Reinforcement Learning with Implicit Q-Learning [85.62618088890787]
現行のオフライン強化学習手法では、トレーニング中に見つからない行動の価値を問い合わせて、ポリシーを改善する必要がある。
本稿では,データセット外の動作を評価する必要のないオフラインRL手法を提案する。
この方法により、学習したポリシーは、一般化によってデータの最良の振る舞いを大幅に改善することができる。
論文 参考訳(メタデータ) (2021-10-12T17:05:05Z) - Building a Foundation for Data-Driven, Interpretable, and Robust Policy
Design using the AI Economist [67.08543240320756]
AIエコノミストフレームワークは,2段階強化学習とデータ駆動型シミュレーションを用いて,効果的な,柔軟な,解釈可能なポリシー設計を可能にする。
RLを用いて訓練されたログリニア政策は、過去の結果と比較して、公衆衛生と経済の両面から社会福祉を著しく改善することがわかった。
論文 参考訳(メタデータ) (2021-08-06T01:30:41Z) - MPC-based Reinforcement Learning for Economic Problems with Application
to Battery Storage [0.0]
モデル予測制御(MPC)に基づく政策近似に焦点を当てます。
政策勾配法は,政策が(ほぼ)バンバン構造を持つ場合,政策パラメータに意味のあるステップを生じさせることに苦慮する。
本稿では,内点法に基づくホモトピー戦略を提案し,学習中に方針を緩和する。
論文 参考訳(メタデータ) (2021-04-06T10:37:14Z) - Conservative Q-Learning for Offline Reinforcement Learning [106.05582605650932]
CQLは既存のオフラインRLメソッドよりも大幅に優れており、多くの場合、ファイナルリターンの2~5倍高いポリシを学習しています。
理論的には、CQLは現在のポリシーの価値の低いバウンダリを生成し、理論的改善保証を伴う政策学習手順に組み込むことができることを示す。
論文 参考訳(メタデータ) (2020-06-08T17:53:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。