論文の概要: Hierarchical Learning to Solve Partial Differential Equations Using
Physics-Informed Neural Networks
- arxiv url: http://arxiv.org/abs/2112.01254v1
- Date: Thu, 2 Dec 2021 13:53:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-03 16:55:07.492689
- Title: Hierarchical Learning to Solve Partial Differential Equations Using
Physics-Informed Neural Networks
- Title(参考訳): 物理インフォームドニューラルネットワークを用いた部分微分方程式の階層学習
- Authors: Jihun Han and Yoonsang Lee
- Abstract要約: 偏微分方程式に対するニューラルネットワーク解の収束率と精度を改善するための階層的手法を提案する。
線形偏微分方程式と非線形偏微分方程式の組によって提案した階層的手法の効率性とロバスト性を検証する。
- 参考スコア(独自算出の注目度): 2.0305676256390934
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Neural network-based approach to solving partial differential equations
has attracted considerable attention due to its simplicity and flexibility to
represent the solution of the partial differential equation. In training a
neural network, the network tends to learn global features corresponding to
low-frequency components while high-frequency components are approximated at a
much slower rate (F-principle). For a class of equations in which the solution
contains a wide range of scales, the network training process can suffer from
slow convergence and low accuracy due to its inability to capture the
high-frequency components. In this work, we propose a hierarchical approach to
improve the convergence rate and accuracy of the neural network solution to
partial differential equations. The proposed method comprises multi-training
levels in which a newly introduced neural network is guided to learn the
residual of the previous level approximation. By the nature of neural networks'
training process, the high-level correction is inclined to capture the
high-frequency components. We validate the efficiency and robustness of the
proposed hierarchical approach through a suite of linear and nonlinear partial
differential equations.
- Abstract(参考訳): 偏微分方程式を解くニューラルネットワークベースのアプローチは、偏微分方程式の解を表すための単純さと柔軟性のために、かなりの注目を集めている。
ニューラルネットワークのトレーニングにおいて、ネットワークは低周波成分に対応するグローバル特徴を学習する傾向にあり、高周波成分はより遅い速度(f原理)で近似される。
解が幅広いスケールを含むような方程式のクラスでは、ネットワークトレーニングプロセスは、高周波成分をキャプチャできないため、収束が遅く、精度が低くなる。
本研究では,ニューラルネットワーク解の偏微分方程式への収束率と精度を改善するための階層的手法を提案する。
提案手法は、新たに導入されたニューラルネットワークを誘導し、前のレベル近似の残差を学習するマルチトレーニングレベルを含む。
ニューラルネットワークのトレーニングプロセスの性質により、高レベルの補正は高周波コンポーネントをキャプチャする傾向にある。
線形偏微分方程式と非線形偏微分方程式の組を通して,提案手法の有効性とロバスト性を検証する。
関連論文リスト
- Chebyshev Spectral Neural Networks for Solving Partial Differential Equations [0.0]
この研究は、フィードフォワードニューラルネットワークモデルとエラーバックプロパゲーション原理を用いて、損失関数の計算に自動微分(AD)を利用する。
楕円偏微分方程式を用いて,CSNNモデルの数値効率と精度について検討し,よく知られた物理インフォームドニューラルネットワーク(PINN)法と比較した。
論文 参考訳(メタデータ) (2024-06-06T05:31:45Z) - Enhanced physics-informed neural networks with domain scaling and
residual correction methods for multi-frequency elliptic problems [11.707981310045742]
楕円型偏微分方程式の多周波解に対するニューラルネットワーク近似法を開発した。
提案手法の有効性と精度を多周波モデル問題に適用する。
論文 参考訳(メタデータ) (2023-11-07T06:08:47Z) - NeuralFastLAS: Fast Logic-Based Learning from Raw Data [54.938128496934695]
シンボリック・ルール学習者は解釈可能な解を生成するが、入力を記号的に符号化する必要がある。
ニューロシンボリックアプローチは、ニューラルネットワークを使用して生データを潜在シンボリック概念にマッピングすることで、この問題を克服する。
我々は,ニューラルネットワークを記号学習者と共同でトレーニングする,スケーラブルで高速なエンドツーエンドアプローチであるNeuralFastLASを紹介する。
論文 参考訳(メタデータ) (2023-10-08T12:33:42Z) - HNS: An Efficient Hermite Neural Solver for Solving Time-Fractional
Partial Differential Equations [12.520882780496738]
時間-屈折偏微分方程式を解くための高精度ハーマイトニューラルソルバー(HNS)を提案する。
実験の結果,HNSは既存のL1法に比べて精度と柔軟性が著しく向上していることがわかった。
論文 参考訳(メタデータ) (2023-10-07T12:44:47Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Tunable Complexity Benchmarks for Evaluating Physics-Informed Neural
Networks on Coupled Ordinary Differential Equations [64.78260098263489]
本研究では,より複雑に結合した常微分方程式(ODE)を解く物理インフォームドニューラルネットワーク(PINN)の能力を評価する。
PINNの複雑性が増大するにつれて,これらのベンチマークに対する正しい解が得られないことが示される。
PINN損失のラプラシアンは,ネットワーク容量の不足,ODEの条件の低下,局所曲率の高さなど,いくつかの理由を明らかにした。
論文 参考訳(メタデータ) (2022-10-14T15:01:32Z) - Random Weight Factorization Improves the Training of Continuous Neural
Representations [1.911678487931003]
連続神経表現は、信号の古典的な離散化表現に代わる強力で柔軟な代替物として登場した。
従来の線形層をパラメータ化・初期化するための単純なドロップイン置換法としてランダムウェイト係数化を提案する。
ネットワーク内の各ニューロンが、自身の自己適応学習率を用いて学習できるように、この因子化が基盤となる損失状況をどのように変化させるかを示す。
論文 参考訳(メタデータ) (2022-10-03T23:48:48Z) - Learning Frequency Domain Approximation for Binary Neural Networks [68.79904499480025]
フーリエ周波数領域における符号関数の勾配を正弦関数の組み合わせを用いて推定し,BNNの訓練を行う。
いくつかのベンチマークデータセットとニューラルネットワークの実験により、この手法で学習したバイナリネットワークが最先端の精度を達成することが示されている。
論文 参考訳(メタデータ) (2021-03-01T08:25:26Z) - Learning Neural Network Subspaces [74.44457651546728]
近年の観測は,ニューラルネットワーク最適化の展望の理解を深めている。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
論文 参考訳(メタデータ) (2021-02-20T23:26:58Z) - ODEN: A Framework to Solve Ordinary Differential Equations using
Artificial Neural Networks [0.0]
我々は、ニューラルネットワークの性能を評価するために、正確な解の知識を必要としない特定の損失関数を証明した。
ニューラルネットワークは、トレーニング領域内での継続的ソリューションの近似に熟練していることが示されている。
ユーザフレンドリで適応可能なオープンソースコード(ODE$mathcalN$)がGitHubで提供されている。
論文 参考訳(メタデータ) (2020-05-28T15:34:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。