論文の概要: An analysis of the derivative-free loss method for solving PDEs
- arxiv url: http://arxiv.org/abs/2309.16829v2
- Date: Thu, 16 Oct 2025 02:51:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.381935
- Title: An analysis of the derivative-free loss method for solving PDEs
- Title(参考訳): 微分自由損失法によるPDEの解法
- Authors: Jihun Han, Yoonsang Lee,
- Abstract要約: 本研究では, ニューラルネットワークを用いたPDEと流体問題を解くために, デリバティブフリー損失法を解析した。
本研究では,Feynman-Kac表現とウォーカーサイズに関連する時間間隔が,計算効率,訓練性,サンプリングに与える影響について検討する。
- 参考スコア(独自算出の注目度): 0.9071592398806215
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study analyzes the derivative-free loss method to solve a certain class of elliptic PDEs and fluid problems using neural networks. The approach leverages the Feynman-Kac formulation, incorporating stochastic walkers and their averaged values. We investigate how the time interval associated with the Feynman-Kac representation and the walker size influence computational efficiency, trainability, and sampling errors. Our analysis shows that the training loss bias scales proportionally with the time interval and the spatial gradient of the neural network, while being inversely proportional to the walker size. Moreover, we demonstrate that the time interval must be sufficiently long to enable effective training. These results indicate that the walker size can be chosen as small as possible, provided it satisfies the optimal lower bound determined by the time interval. Finally, we present numerical experiments that support our theoretical findings.
- Abstract(参考訳): 本研究では, ニューラルネットワークを用いた楕円型PDEと流体問題のある種の解法として, デリバティブフリー損失法を解析した。
このアプローチは、確率歩行器とその平均値を取り入れたファインマン・カックの定式化を利用する。
本研究では,Feynman-Kac表現とウォーカーサイズに関連する時間間隔が,計算効率,トレーニング性,サンプリング誤差に与える影響について検討した。
分析の結果,トレーニング損失バイアスは時間間隔とニューラルネットワークの空間勾配に比例し,歩行量と逆比例することがわかった。
さらに,時間間隔が十分長くて効果的なトレーニングが可能であることを示す。
これらの結果は、時間間隔によって決定される最適下界を満たすならば、ウォーカーサイズを可能な限り小さくすることができることを示唆している。
最後に,理論的な知見を裏付ける数値実験について述べる。
関連論文リスト
- MultiPDENet: PDE-embedded Learning with Multi-time-stepping for Accelerated Flow Simulation [48.41289705783405]
マルチスケールタイムステップ(MultiPDENet)を用いたPDE組み込みネットワークを提案する。
特に,有限差分構造に基づく畳み込みフィルタを少数のパラメータで設計し,最適化する。
4階ランゲ・クッタ積分器を微細な時間スケールで備えた物理ブロックが確立され、PDEの構造を埋め込んで予測を導出する。
論文 参考訳(メタデータ) (2025-01-27T12:15:51Z) - A hybrid FEM-PINN method for time-dependent partial differential equations [9.631238071993282]
本稿では、時間有限要素法とディープニューラルネットワークを融合させることにより、進化微分方程式(PDE)を解くためのハイブリッド数値計算法を提案する。
このようなハイブリッドな定式化の利点は2つある: 統計誤差は時間方向の積分に対して回避され、ニューラルネットワークの出力は縮小された空間基底関数の集合と見なすことができる。
論文 参考訳(メタデータ) (2024-09-04T15:28:25Z) - Automatic Differentiation is Essential in Training Neural Networks for Solving Differential Equations [7.890817997914349]
ニューラルネットワークに基づくアプローチは、最近、科学と工学における偏微分方程式(PDE)の解法において大きな可能性を示している。
PDEのためのニューラルネットワーク手法の利点の1つは、その自動微分(AD)にある。
本稿では、ニューラルネットワークのトレーニングにおけるADの利点を定量的に示す。
論文 参考訳(メタデータ) (2024-05-23T02:01:05Z) - Neural Spectral Methods: Self-supervised learning in the spectral domain [0.0]
パラメトリック部分方程式(PDE)の解法であるニューラルスペクトル法を提案する。
提案手法は,スペクトル係数間のマッピングとしてPDE解の学習に基底を用いる。
実験の結果,提案手法は,従来の機械学習手法よりも高速化と精度に優れていたことがわかった。
論文 参考訳(メタデータ) (2023-12-08T18:20:43Z) - Low-rank extended Kalman filtering for online learning of neural
networks from streaming data [71.97861600347959]
非定常データストリームから非線形関数のパラメータを推定するための効率的なオンライン近似ベイズ推定アルゴリズムを提案する。
この方法は拡張カルマンフィルタ (EKF) に基づいているが、新しい低ランク+斜角行列分解法を用いている。
変分推論に基づく手法とは対照的に,本手法は完全に決定論的であり,ステップサイズチューニングを必要としない。
論文 参考訳(メタデータ) (2023-05-31T03:48:49Z) - Adversarial Adaptive Sampling: Unify PINN and Optimal Transport for the Approximation of PDEs [2.526490864645154]
ニューラルネットワークモデルにより与えられた近似解とトレーニングセットのランダムサンプルを同時に最適化する新しいminmax式を提案する。
鍵となる考え方は、深層生成モデルを用いてトレーニングセット内のランダムサンプルを調整し、近似されたPDE解によって誘導される残差が滑らかなプロファイルを維持することである。
論文 参考訳(メタデータ) (2023-05-30T02:59:18Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - Meta-Learning for Koopman Spectral Analysis with Short Time-series [49.41640137945938]
既存の手法では、ニューラルネットワークのトレーニングに長い時間を要する。
本稿では,未知の短い時系列から埋め込み関数を推定するメタラーニング手法を提案する。
提案手法は,固有値推定と将来予測の観点から,よりよい性能を実現することを実験的に実証した。
論文 参考訳(メタデータ) (2021-02-09T07:19:19Z) - Deep Modeling of Growth Trajectories for Longitudinal Prediction of
Missing Infant Cortical Surfaces [58.780482825156035]
空間グラフ畳み込みニューラルネットワーク(GCNN)を用いた皮質表面の経時的予測法を提案する。
提案手法は,皮質成長軌跡をモデル化し,複数点の内曲面と外曲面を共同で予測する。
本手法が時間的皮質成長パターンの非線形性を捉えることができることを示す。
論文 参考訳(メタデータ) (2020-09-06T18:46:04Z) - Predicting Training Time Without Training [120.92623395389255]
我々は、事前訓練された深層ネットワークが損失関数の所定の値に収束する必要がある最適化ステップの数を予測する問題に取り組む。
我々は、微調整中の深部ネットワークのトレーニングダイナミクスが線形化モデルによってよく近似されているという事実を活用する。
トレーニングをする必要なく、特定の損失にモデルを微調整するのに要する時間を予測できます。
論文 参考訳(メタデータ) (2020-08-28T04:29:54Z) - On Learning Rates and Schr\"odinger Operators [105.32118775014015]
本稿では,学習率の影響に関する一般的な理論的分析を行う。
学習速度は、幅広い非ニューラルクラス関数に対してゼロとなる傾向にある。
論文 参考訳(メタデータ) (2020-04-15T09:52:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。