論文の概要: An analysis of the derivative-free loss method for solving PDEs
- arxiv url: http://arxiv.org/abs/2309.16829v1
- Date: Thu, 28 Sep 2023 20:19:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-02 16:26:52.736723
- Title: An analysis of the derivative-free loss method for solving PDEs
- Title(参考訳): pdesを解くための微分自由損失法の解析
- Authors: Jihun Han, Yoonsang Lee
- Abstract要約: 本研究では,Feynman-Kac の定式化に伴う時間間隔とウォーカーサイズが,計算効率,トレーニング性,サンプリング誤差に与える影響について検討した。
本分析により,トレーニング損失バイアスは,歩行量に比例しながら,ニューラルネットワークの時間間隔と空間勾配に比例することが示された。
これらの分析結果から,時間間隔の最適下限に基づいて,ウォーカーサイズを可能な限り小さく選択できることが示唆された。
- 参考スコア(独自算出の注目度): 0.87024326813104
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study analyzes the derivative-free loss method to solve a certain class
of elliptic PDEs using neural networks. The derivative-free loss method uses
the Feynman-Kac formulation, incorporating stochastic walkers and their
corresponding average values. We investigate the effect of the time interval
related to the Feynman-Kac formulation and the walker size in the context of
computational efficiency, trainability, and sampling errors. Our analysis shows
that the training loss bias is proportional to the time interval and the
spatial gradient of the neural network while inversely proportional to the
walker size. We also show that the time interval must be sufficiently long to
train the network. These analytic results tell that we can choose the walker
size as small as possible based on the optimal lower bound of the time
interval. We also provide numerical tests supporting our analysis.
- Abstract(参考訳): 本研究では,ニューラルネットワークを用いて導出自由損失法を解析し,楕円型pdesを解く。
微分自由損失法は、確率歩行器とその対応する平均値を組み込んだファインマン・カック定式化を用いる。
本研究では,feynman-kacの定式化とウォーカーサイズに関連する時間間隔の影響について,計算効率,トレーサビリティ,サンプリング誤差の文脈で検討した。
分析の結果,トレーニング損失バイアスは時間間隔とニューラルネットワークの空間勾配に比例する一方で,歩行量に比例することがわかった。
また,ネットワークをトレーニングするには時間間隔が十分長い必要があることを示す。
これらの分析結果から,時間間隔の最適下限に基づいて,ウォーカーサイズを可能な限り小さく選択できることが示唆された。
分析を支援する数値テストも提供します。
関連論文リスト
- A hybrid FEM-PINN method for time-dependent partial differential equations [9.631238071993282]
本稿では、時間有限要素法とディープニューラルネットワークを融合させることにより、進化微分方程式(PDE)を解くためのハイブリッド数値計算法を提案する。
このようなハイブリッドな定式化の利点は2つある: 統計誤差は時間方向の積分に対して回避され、ニューラルネットワークの出力は縮小された空間基底関数の集合と見なすことができる。
論文 参考訳(メタデータ) (2024-09-04T15:28:25Z) - Automatic Differentiation is Essential in Training Neural Networks for Solving Differential Equations [7.890817997914349]
ニューラルネットワークに基づくアプローチは、最近、科学と工学における偏微分方程式(PDE)の解法において大きな可能性を示している。
PDEのためのニューラルネットワーク手法の利点の1つは、その自動微分(AD)にある。
本稿では、ニューラルネットワークのトレーニングにおけるADの利点を定量的に示す。
論文 参考訳(メタデータ) (2024-05-23T02:01:05Z) - Neural Spectral Methods: Self-supervised learning in the spectral domain [0.0]
パラメトリック部分方程式(PDE)の解法であるニューラルスペクトル法を提案する。
提案手法は,スペクトル係数間のマッピングとしてPDE解の学習に基底を用いる。
実験の結果,提案手法は,従来の機械学習手法よりも高速化と精度に優れていたことがわかった。
論文 参考訳(メタデータ) (2023-12-08T18:20:43Z) - Low-rank extended Kalman filtering for online learning of neural
networks from streaming data [71.97861600347959]
非定常データストリームから非線形関数のパラメータを推定するための効率的なオンライン近似ベイズ推定アルゴリズムを提案する。
この方法は拡張カルマンフィルタ (EKF) に基づいているが、新しい低ランク+斜角行列分解法を用いている。
変分推論に基づく手法とは対照的に,本手法は完全に決定論的であり,ステップサイズチューニングを必要としない。
論文 参考訳(メタデータ) (2023-05-31T03:48:49Z) - Adversarial Adaptive Sampling: Unify PINN and Optimal Transport for the Approximation of PDEs [2.526490864645154]
ニューラルネットワークモデルにより与えられた近似解とトレーニングセットのランダムサンプルを同時に最適化する新しいminmax式を提案する。
鍵となる考え方は、深層生成モデルを用いてトレーニングセット内のランダムサンプルを調整し、近似されたPDE解によって誘導される残差が滑らかなプロファイルを維持することである。
論文 参考訳(メタデータ) (2023-05-30T02:59:18Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - Meta-Learning for Koopman Spectral Analysis with Short Time-series [49.41640137945938]
既存の手法では、ニューラルネットワークのトレーニングに長い時間を要する。
本稿では,未知の短い時系列から埋め込み関数を推定するメタラーニング手法を提案する。
提案手法は,固有値推定と将来予測の観点から,よりよい性能を実現することを実験的に実証した。
論文 参考訳(メタデータ) (2021-02-09T07:19:19Z) - Deep Modeling of Growth Trajectories for Longitudinal Prediction of
Missing Infant Cortical Surfaces [58.780482825156035]
空間グラフ畳み込みニューラルネットワーク(GCNN)を用いた皮質表面の経時的予測法を提案する。
提案手法は,皮質成長軌跡をモデル化し,複数点の内曲面と外曲面を共同で予測する。
本手法が時間的皮質成長パターンの非線形性を捉えることができることを示す。
論文 参考訳(メタデータ) (2020-09-06T18:46:04Z) - Predicting Training Time Without Training [120.92623395389255]
我々は、事前訓練された深層ネットワークが損失関数の所定の値に収束する必要がある最適化ステップの数を予測する問題に取り組む。
我々は、微調整中の深部ネットワークのトレーニングダイナミクスが線形化モデルによってよく近似されているという事実を活用する。
トレーニングをする必要なく、特定の損失にモデルを微調整するのに要する時間を予測できます。
論文 参考訳(メタデータ) (2020-08-28T04:29:54Z) - On Learning Rates and Schr\"odinger Operators [105.32118775014015]
本稿では,学習率の影響に関する一般的な理論的分析を行う。
学習速度は、幅広い非ニューラルクラス関数に対してゼロとなる傾向にある。
論文 参考訳(メタデータ) (2020-04-15T09:52:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。