論文の概要: DeepHAM: A Global Solution Method for Heterogeneous Agent Models with
Aggregate Shocks
- arxiv url: http://arxiv.org/abs/2112.14377v1
- Date: Wed, 29 Dec 2021 03:09:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-30 16:36:24.045551
- Title: DeepHAM: A Global Solution Method for Heterogeneous Agent Models with
Aggregate Shocks
- Title(参考訳): DeepHAM: 凝集衝撃を伴う不均一エージェントモデルのグローバル解法
- Authors: Jiequn Han, Yucheng Yang, Weinan E
- Abstract要約: ヘテロジニアスエージェントモデル(DeepHAM$)のための,効率よく,信頼性が高く,解釈可能なグローバルソリューション法である$textitDeep学習ベースアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 9.088303226909277
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose an efficient, reliable, and interpretable global solution method,
$\textit{Deep learning-based algorithm for Heterogeneous Agent Models,
DeepHAM}$, for solving high dimensional heterogeneous agent models with
aggregate shocks. The state distribution is approximately represented by a set
of optimal generalized moments. Deep neural networks are used to approximate
the value and policy functions, and the objective is optimized over directly
simulated paths. Besides being an accurate global solver, this method has three
additional features. First, it is computationally efficient for solving complex
heterogeneous agent models, and it does not suffer from the curse of
dimensionality. Second, it provides a general and interpretable representation
of the distribution over individual states; and this is important for
addressing the classical question of whether and how heterogeneity matters in
macroeconomics. Third, it solves the constrained efficiency problem as easily
as the competitive equilibrium, and this opens up new possibilities for
studying optimal monetary and fiscal policies in heterogeneous agent models
with aggregate shocks.
- Abstract(参考訳): 本稿では,ヘテロジニアスエージェントモデルのための効率的で信頼性が高く解釈可能なグローバルソリューション法である$\textit{deep Learning-based algorithm for Heterogeneous Agent Models, DeepHAM}$を提案する。
状態分布は、概して最適な一般化モーメントの集合で表される。
ディープニューラルネットワークは、値とポリシー関数の近似に使用され、目的が直接シミュレーションされたパスに最適化される。
正確なグローバルソルバであることに加えて、このメソッドには3つの追加機能がある。
第一に、複素不均一なエージェントモデルを解くのに計算効率が高く、次元の呪いに苦しむことはない。
第二に、個々の状態上の分布の一般的かつ解釈可能な表現を提供しており、マクロ経済学において不均一性が重要であるかどうかという古典的な問題に対処するために重要である。
第三に、競争均衡と同じくらい容易に制約された効率問題を解き、これは集合ショックを伴う異種エージェントモデルにおいて最適な金融政策と財政政策を研究する新たな可能性を開く。
関連論文リスト
- Global Solutions to Master Equations for Continuous Time Heterogeneous Agent Macroeconomic Models [2.133330089821556]
エージェント分布を近似し,非線型偏微分方程式により経済の平衡を特徴づける。
ニューラルネットワークを用いて値関数を表現し、ディープラーニングツールを用いた微分方程式の解法を訓練する。
この手法の主な利点は、高次元非線形問題に対する大域的な解を見つけることができることである。
論文 参考訳(メタデータ) (2024-06-19T17:42:53Z) - Computational-Statistical Gaps in Gaussian Single-Index Models [77.1473134227844]
単次元モデル(Single-Index Models)は、植木構造における高次元回帰問題である。
我々は,統計的クエリ (SQ) と低遅延多項式 (LDP) フレームワークの両方において,計算効率のよいアルゴリズムが必ずしも$Omega(dkstar/2)$サンプルを必要とすることを示した。
論文 参考訳(メタデータ) (2024-03-08T18:50:19Z) - Scalable Decentralized Algorithms for Online Personalized Mean Estimation [12.002609934938224]
本研究は,各エージェントが実数値分布からサンプルを収集し,その平均値を推定する,オーバーアーキシング問題の簡易版に焦点を当てた。
1つは信念の伝播からインスピレーションを得ており、もう1つはコンセンサスに基づくアプローチを採用している。
論文 参考訳(メタデータ) (2024-02-20T08:30:46Z) - Model-Based RL for Mean-Field Games is not Statistically Harder than Single-Agent RL [57.745700271150454]
モデルに基づく関数近似を用いた平均フィールドゲーム(MFG)における強化学習のサンプル複雑性について検討した。
本稿では、モデルクラスの複雑性を特徴付けるためのより効果的な概念である部分モデルベースエルダー次元(P-MBED)を紹介する。
論文 参考訳(メタデータ) (2024-02-08T14:54:47Z) - On the Model-Misspecification in Reinforcement Learning [9.864462523050843]
本稿では,強化学習におけるモデルの誤特定に対処するための統一的理論的枠組みを提案する。
本研究では,値に基づく手法とモデルに基づく手法が,局所的不特定誤差境界の下で頑健性を実現することを示す。
また、$zeta$の事前知識なしで同じ後悔の順序を達成できるアルゴリズム的フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-19T04:31:59Z) - Sample Complexity of Robust Reinforcement Learning with a Generative
Model [0.0]
本稿では,モデルに基づく強化学習(RL)アルゴリズムを提案する。
我々は,全変動距離,カイ二乗発散,KL発散の3種類の不確実性集合を考察した。
この結果に加えて,ロバストポリシの利点に関する公式な分析的議論も提示する。
論文 参考訳(メタデータ) (2021-12-02T18:55:51Z) - Model-Based Multi-Agent RL in Zero-Sum Markov Games with Near-Optimal
Sample Complexity [67.02490430380415]
モデルに基づくMARLは、Nash平衡値(NE)を求めるために$tilde O(|S||B|(gamma)-3epsilon-2)$のサンプル複雑性を実現する。
また、アルゴリズムが報酬に依存しない場合、そのようなサンプル境界は最小値(対数因子まで)であり、アルゴリズムは報酬知識のない遷移サンプルを問合せする。
論文 参考訳(メタデータ) (2020-07-15T03:25:24Z) - Model Fusion with Kullback--Leibler Divergence [58.20269014662046]
異種データセットから学習した後続分布を融合する手法を提案する。
我々のアルゴリズムは、融合モデルと個々のデータセット後部の両方に対する平均場仮定に依存している。
論文 参考訳(メタデータ) (2020-07-13T03:27:45Z) - Dynamic Federated Learning [57.14673504239551]
フェデレートラーニング(Federated Learning)は、マルチエージェント環境における集中的なコーディネーション戦略の包括的用語として登場した。
我々は、各イテレーションにおいて、利用可能なエージェントのランダムなサブセットがそのデータに基づいてローカル更新を実行する、フェデレートされた学習モデルを考える。
集約最適化問題に対する真の最小化器上の非定常ランダムウォークモデルの下で、アーキテクチャの性能は、各エージェントにおけるデータ変動率、各エージェントにおけるモデル変動率、アルゴリズムの学習率に逆比例する追跡項の3つの要因によって決定されることを示す。
論文 参考訳(メタデータ) (2020-02-20T15:00:54Z) - Polynomial-Time Exact MAP Inference on Discrete Models with Global
Dependencies [83.05591911173332]
ジャンクションツリーアルゴリズムは、実行時の保証と正確なMAP推論のための最も一般的な解である。
本稿では,ノードのクローン化による新たなグラフ変換手法を提案する。
論文 参考訳(メタデータ) (2019-12-27T13:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。