論文の概要: Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks
- arxiv url: http://arxiv.org/abs/2303.01767v1
- Date: Fri, 3 Mar 2023 08:17:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-06 15:51:50.424945
- Title: Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks
- Title(参考訳): 物理インフォームドニューラルネットワークのトレーニングのための難解な確率勾配線
- Authors: Ye Li, Song-Can Chen, Sheng-Jun Huang
- Abstract要約: 物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
- 参考スコア(独自算出の注目度): 51.92362217307946
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physics-informed neural networks (PINNs) have effectively been demonstrated
in solving forward and inverse differential equation problems, but they are
still trapped in training failures when the target functions to be approximated
exhibit high-frequency or multi-scale features. In this paper, we propose to
employ implicit stochastic gradient descent (ISGD) method to train PINNs for
improving the stability of training process. We heuristically analyze how ISGD
overcome stiffness in the gradient flow dynamics of PINNs, especially for
problems with multi-scale solutions. We theoretically prove that for two-layer
fully connected neural networks with large hidden nodes, randomly initialized
ISGD converges to a globally optimal solution for the quadratic loss function.
Empirical results demonstrate that ISGD works well in practice and compares
favorably to other gradient-based optimization methods such as SGD and Adam,
while can also effectively address the numerical stiffness in training dynamics
via gradient descent.
- Abstract(参考訳): 物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法において効果的に実証されているが、近似されるターゲット関数が高周波またはマルチスケールの特徴を示す場合のトレーニング失敗にはいまだに閉じ込められている。
本稿では,暗黙の確率勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
我々はISGDがPINNの勾配流力学の剛性を克服する方法を、特にマルチスケールソリューションにおける問題に対してヒューリスティックに分析した。
理論的には、大きな隠れノードを持つ2層完全連結ニューラルネットワークでは、ランダム初期化isgdは二次損失関数のグローバル最適解に収束する。
実験の結果、ISGDは実際にうまく機能し、SGDやAdamのような他の勾配に基づく最適化手法と比較できる一方で、勾配降下によるトレーニング力学の数値剛性にも効果的に対処できることが示された。
関連論文リスト
- Dual Cone Gradient Descent for Training Physics-Informed Neural Networks [0.0]
物理インフォームド・デュアルニューラルネットワーク(PINN)は偏微分方程式の解法として注目されている。
コーン領域内に落下するのを確実にするために、更新された勾配の方向を調節する新しいフレームワークであるDual Cone Gradient Descent (DCGD)を提案する。
論文 参考訳(メタデータ) (2024-09-27T03:27:46Z) - Convergence of Implicit Gradient Descent for Training Two-Layer Physics-Informed Neural Networks [3.680127959836384]
暗黙の勾配降下(IGD)は、ある種のマルチスケール問題を扱う場合、共通勾配降下(GD)よりも優れる。
IGDは線形収束速度で大域的に最適解を収束することを示す。
論文 参考訳(メタデータ) (2024-07-03T06:10:41Z) - Adaptive Federated Learning Over the Air [108.62635460744109]
オーバー・ザ・エア・モデル・トレーニングの枠組みの中で,適応勾配法,特にAdaGradとAdamの連合バージョンを提案する。
解析の結果,AdaGrad に基づくトレーニングアルゴリズムは $mathcalO(ln(T) / T 1 - frac1alpha の速度で定常点に収束することがわかった。
論文 参考訳(メタデータ) (2024-03-11T09:10:37Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - An Adaptive and Stability-Promoting Layerwise Training Approach for Sparse Deep Neural Network Architecture [0.0]
この研究は、与えられたトレーニングデータセットに対してうまく一般化するディープニューラルネットワーク(DNN)アーキテクチャを開発するための2段階適応フレームワークを提案する。
第1段階では、新しいレイヤを毎回追加し、前のレイヤでパラメータを凍結することで独立してトレーニングする、レイヤワイズトレーニングアプローチが採用されている。
本稿では, 学習アルゴリズムの望ましい特性として, エプシロン・デルタ安定促進の概念を導入し, 多様体正規化を用いることで, エプシロン・デルタ安定促進アルゴリズムが得られることを示す。
論文 参考訳(メタデータ) (2022-11-13T09:51:16Z) - Momentum Diminishes the Effect of Spectral Bias in Physics-Informed
Neural Networks [72.09574528342732]
物理インフォームドニューラルネットワーク(PINN)アルゴリズムは、偏微分方程式(PDE)を含む幅広い問題を解く上で有望な結果を示している。
彼らはしばしば、スペクトルバイアスと呼ばれる現象のために、ターゲット関数が高周波の特徴を含むとき、望ましい解に収束しない。
本研究は, 運動量による勾配降下下で進化するPINNのトレーニングダイナミクスを, NTK(Neural Tangent kernel)を用いて研究するものである。
論文 参考訳(メタデータ) (2022-06-29T19:03:10Z) - Cogradient Descent for Dependable Learning [64.02052988844301]
双線形最適化問題に対処するために,CoGDアルゴリズムに基づく信頼度の高い学習法を提案する。
CoGDは、ある変数がスパーシティ制約を持つ場合の双線形問題を解くために導入された。
また、特徴と重みの関連を分解するためにも使用できるため、畳み込みニューラルネットワーク(CNN)をより良く訓練するための我々の手法をさらに一般化することができる。
論文 参考訳(メタデータ) (2021-06-20T04:28:20Z) - Efficient training of physics-informed neural networks via importance
sampling [2.9005223064604078]
Physics-In Neural Networks(PINN)は、偏微分方程式(PDE)によって制御されるシステムを計算するために訓練されているディープニューラルネットワークのクラスである。
重要サンプリング手法により,PINN訓練の収束挙動が改善されることが示唆された。
論文 参考訳(メタデータ) (2021-04-26T02:45:10Z) - Revisiting Initialization of Neural Networks [72.24615341588846]
ヘッセン行列のノルムを近似し, 制御することにより, 層間における重みのグローバルな曲率を厳密に推定する。
Word2Vec と MNIST/CIFAR 画像分類タスクの実験により,Hessian ノルムの追跡が診断ツールとして有用であることが確認された。
論文 参考訳(メタデータ) (2020-04-20T18:12:56Z) - Semi-Implicit Back Propagation [1.5533842336139065]
ニューラルネットワークトレーニングのための半単純バック伝搬法を提案する。
ニューロンの差は後方方向に伝播し、パラメータは近位写像で更新される。
MNISTとCIFAR-10の両方の実験により、提案アルゴリズムは損失減少とトレーニング/検証の精度の両方において、より良い性能をもたらすことが示された。
論文 参考訳(メタデータ) (2020-02-10T03:26:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。