論文の概要: Solving Heterogeneous Agent Models with Physics-informed Neural Networks
- arxiv url: http://arxiv.org/abs/2511.20283v1
- Date: Tue, 25 Nov 2025 13:11:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.472886
- Title: Solving Heterogeneous Agent Models with Physics-informed Neural Networks
- Title(参考訳): 物理インフォームドニューラルネットワークを用いた不均一エージェントモデルの解法
- Authors: Marta Grzeskiewicz,
- Abstract要約: 本稿では物理インフォームドニューラルネットワーク(PINN)に基づくアプローチであるABH-PINNソルバを紹介する。
PINNはハミルトン・ヤコビ・ベルマン方程式とコルモゴロフフォワード方程式を直接ニューラルネットワークトレーニングの目的に組み込む。
予備的な結果は、PINNに基づくアプローチが、確立された有限差分解法に適合する経済的に有効な結果を得ることができることを示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Understanding household behaviour is essential for modelling macroeconomic dynamics and designing effective policy. While heterogeneous agent models offer a more realistic alternative to representative agent frameworks, their implementation poses significant computational challenges, particularly in continuous time. The Aiyagari-Bewley-Huggett (ABH) framework, recast as a system of partial differential equations, typically relies on grid-based solvers that suffer from the curse of dimensionality, high computational cost, and numerical inaccuracies. This paper introduces the ABH-PINN solver, an approach based on Physics-Informed Neural Networks (PINNs), which embeds the Hamilton-Jacobi-Bellman and Kolmogorov Forward equations directly into the neural network training objective. By replacing grid-based approximation with mesh-free, differentiable function learning, the ABH-PINN solver benefits from the advantages of PINNs of improved scalability, smoother solutions, and computational efficiency. Preliminary results show that the PINN-based approach is able to obtain economically valid results matching the established finite-difference solvers.
- Abstract(参考訳): 世帯行動を理解することは、マクロ経済力学をモデル化し、効果的な政策を設計するのに不可欠である。
異種エージェントモデルは代表エージェントフレームワークよりも現実的な代替手段を提供するが、その実装は特に連続時間において重要な計算上の課題を生じさせる。
Aiyagari-Bewley-Huggett (ABH) フレームワークは偏微分方程式の体系として再キャストされ、一般に次元の呪い、高い計算コスト、数値的不正確さに苦しむグリッドベースの解法に依存する。
本稿では、Hamilton-Jacobi-BellmanおよびKolmogorov Forward方程式をニューラルネットワークトレーニングの目的に直接組み込む、物理インフォームドニューラルネットワーク(PINN)に基づくアプローチであるABH-PINNソルバを紹介する。
ABH-PINNソルバは、グリッドベースの近似をメッシュフリーで微分可能な関数学習に置き換えることで、拡張性、スムーズなソリューション、計算効率の改善によるPINNの利点を享受できる。
予備的な結果は、PINNに基づくアプローチが、確立された有限差分解法に適合する経済的に有効な結果を得ることができることを示している。
関連論文リスト
- Hephaestus: Mixture Generative Modeling with Energy Guidance for Large-scale QoS Degradation [44.97875113025023]
本稿では,QoSD(Quality of Service Degradation)問題について考察する。
非線形エッジウェイト関数の下では、RefineD問題に直接対処する先行モデルは存在しない。
この研究は、潜在空間における実現可能な解を合成する自己強化フレームワークであるPIMMAを提案する。
論文 参考訳(メタデータ) (2025-10-19T22:48:35Z) - Mask-PINNs: Mitigating Internal Covariate Shift in Physics-Informed Neural Networks [1.2667864219315372]
PINNは偏微分方程式を解くための強力なフレームワークとして登場した。
特徴分布を制御するための学習可能なマスク関数であるMask-PINNを提案する。
その結果, 予測精度, 収束安定性, 頑健性は一貫した改善が見られた。
論文 参考訳(メタデータ) (2025-05-09T15:38:52Z) - Finite Element Neural Network Interpolation. Part I: Interpretable and Adaptive Discretization for Solving PDEs [44.99833362998488]
組込み有限要素ニューラルネットワーク(EFENN)における従来の研究を拡張したスパースニューラルネットワークアーキテクチャを提案する。
EFENNはメッシュベースの構造であるため、完全に接続されたニューラルネットワークよりもトレーニング可能なパラメータをはるかに少なくする必要がある。
EFENNフレームワーク内のFENNIフレームワークは、HiDeNNアプローチの改善をもたらします。
論文 参考訳(メタデータ) (2024-12-07T18:31:17Z) - Adaptive Training of Grid-Dependent Physics-Informed Kolmogorov-Arnold Networks [4.216184112447278]
物理インフォームドニューラルネットワーク(PINN)は、部分微分方程式(PDE)を解くための堅牢なフレームワークとして登場した。
本稿では、PDEを解くために、グリッド依存のKolmogorov-Arnold Networks(PIKAN)の高速なJAXベースの実装を提案する。
適応的特徴は解の精度を著しく向上させ,基準解に対するL2誤差を最大43.02%減少させることを示した。
論文 参考訳(メタデータ) (2024-07-24T19:55:08Z) - Burgers' pinns with implicit euler transfer learning [0.0]
バーガーズ方程式は、いくつかの現象の計算モデルにおいて確立されたテストケースである。
本稿では,バーガース方程式を解くために,暗黙のオイラー変換学習手法を用いた物理情報ニューラルネットワーク(PINN)の適用について述べる。
論文 参考訳(メタデータ) (2023-10-23T20:15:45Z) - Efficient and Flexible Neural Network Training through Layer-wise Feedback Propagation [49.44309457870649]
レイヤワイドフィードバックフィードバック(LFP)は、ニューラルネットワークのような予測器のための新しいトレーニング原則である。
LFPはそれぞれの貢献に基づいて個々のニューロンに報酬を分解する。
提案手法は,ネットワークの有用な部分と有害な部分の弱体化を両立させる手法である。
論文 参考訳(メタデータ) (2023-08-23T10:48:28Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - AttNS: Attention-Inspired Numerical Solving For Limited Data Scenarios [51.94807626839365]
限定データによる微分方程式の解法として,注目型数値解法(AttNS)を提案する。
AttNSは、モデル一般化とロバスト性の向上におけるResidual Neural Networks(ResNet)のアテンションモジュールの効果にインスパイアされている。
論文 参考訳(メタデータ) (2023-02-05T01:39:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。