論文の概要: Learning in Sinusoidal Spaces with Physics-Informed Neural Networks
- arxiv url: http://arxiv.org/abs/2109.09338v1
- Date: Mon, 20 Sep 2021 07:42:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-22 04:56:25.862927
- Title: Learning in Sinusoidal Spaces with Physics-Informed Neural Networks
- Title(参考訳): 物理インフォームドニューラルネットワークによる正弦波空間の学習
- Authors: Jian Cheng Wong, Chinchun Ooi, Abhishek Gupta, Yew-Soon Ong
- Abstract要約: 物理インフォームドニューラルネットワーク(PINN)は、物理増強された損失関数を用いて、その出力が基本的な物理法則と一致していることを保証する。
実際に多くの問題に対して正確なPINNモデルをトレーニングすることは困難であることが判明した。
- 参考スコア(独自算出の注目度): 22.47355575565345
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A physics-informed neural network (PINN) uses physics-augmented loss
functions, e.g., incorporating the residual term from governing differential
equations, to ensure its output is consistent with fundamental physics laws.
However, it turns out to be difficult to train an accurate PINN model for many
problems in practice. In this paper, we address this issue through a novel
perspective on the merits of learning in sinusoidal spaces with PINNs. By
analyzing asymptotic behavior at model initialization, we first prove that a
PINN of increasing size (i.e., width and depth) induces a bias towards flat
outputs. Notably, a flat function is a trivial solution to many physics
differential equations, hence, deceptively minimizing the residual term of the
augmented loss while being far from the true solution. We then show that the
sinusoidal mapping of inputs, in an architecture we label as sf-PINN, is able
to elevate output variability, thus avoiding being trapped in the deceptive
local minimum. In addition, the level of variability can be effectively
modulated to match high-frequency patterns in the problem at hand. A key facet
of this paper is the comprehensive empirical study that demonstrates the
efficacy of learning in sinusoidal spaces with PINNs for a wide range of
forward and inverse modelling problems spanning multiple physics domains.
- Abstract(参考訳): 物理インフォームドニューラルネットワーク(PINN)は、物理増分損失関数(例えば、制御微分方程式から残留項を組み込んで、その出力が基本的な物理法則と整合していることを保証する。
しかし、実際の多くの問題に対して正確なPINNモデルをトレーニングすることは困難であることが判明した。
本稿では, PINNを用いた正弦波空間における学習のメリットについて, 新たな視点から考察する。
モデル初期化時の漸近挙動を解析することにより、サイズ(幅と深さ)が大きくなるPINNが平坦な出力に偏りを生じさせることを示す。
特に、平坦函数は、多くの物理微分方程式に対する自明な解であり、したがって、真の解からは程遠いが、拡張損失の残余項を欺いて最小化する。
次に、sf-PINNとラベル付けしたアーキテクチャにおいて、入力の正弦波写像は出力の変動を増大させることができることを示し、それ故に知覚的局所最小値に閉じ込められることを避ける。
さらに、変動のレベルを効果的に変調して、目の前の問題における高周波パターンを一致させることができる。
本稿では, PINNを用いた正弦波空間における学習の有効性を, 複数の物理領域にまたがる幅広い前方・逆モデリング問題に対する包括的実験により検証した。
関連論文リスト
- Improving PINNs By Algebraic Inclusion of Boundary and Initial Conditions [0.1874930567916036]
AI for Science」は、AI技術を用いた基本的な科学的問題を解決することを目的としている。
本研究では、トレーニング対象のモデルを単にニューラルネットワークから非線形変換に変更する可能性について検討する。
これにより、損失関数の項数は標準のPINN損失よりも減少する。
論文 参考訳(メタデータ) (2024-07-30T11:19:48Z) - Collocation-based Robust Variational Physics-Informed Neural Networks (CRVPINN) [0.0]
物理インフォームドニューラルネットワーク(PINN)は部分微分方程式(PDE)の解法として成功している
Robust Variational Physics-Informed Neural Networks (RVPINNs) の最近の研究は、基礎となる連続空間のノルムを離散レベルに便利に翻訳することの重要性を強調している。
本研究ではRVPINNの実装を加速し、元のPINNと同じ精神を持つ点配置方式でスパースグラム行列のLU分解を確立する。
論文 参考訳(メタデータ) (2024-01-04T14:42:29Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - NeuralStagger: Accelerating Physics-constrained Neural PDE Solver with
Spatial-temporal Decomposition [67.46012350241969]
本稿では,NeuralStaggerと呼ばれる一般化手法を提案する。
元の学習タスクをいくつかの粗い解像度のサブタスクに分解する。
本稿では,2次元および3次元流体力学シミュレーションにおけるNeuralStaggerの適用例を示す。
論文 参考訳(メタデータ) (2023-02-20T19:36:52Z) - Reduced-PINN: An Integration-Based Physics-Informed Neural Networks for
Stiff ODEs [0.0]
物理インフォームドニューラルネットワーク(PINN)は、最近、前方および逆問題の両方を解決する能力により、多くの注目を集めている。
そこで我々は, PINN の高次積分法を用いて, 硬質化学動力学を解ける新しい PINN アーキテクチャ, Reduced-PINN を提案する。
論文 参考訳(メタデータ) (2022-08-23T09:20:42Z) - Learning to Solve PDE-constrained Inverse Problems with Graph Networks [51.89325993156204]
科学と工学にまたがる多くの応用分野において、偏微分方程式(PDE)によって定義される制約で逆問題を解決することに興味がある。
ここでは、これらのPDE制約された逆問題を解決するために、GNNを探索する。
GNNを用いて計算速度を最大90倍に向上させる。
論文 参考訳(メタデータ) (2022-06-01T18:48:01Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Characterizing possible failure modes in physics-informed neural
networks [55.83255669840384]
科学機械学習における最近の研究は、いわゆる物理情報ニューラルネットワーク(PINN)モデルを開発した。
既存のPINN方法論は比較的自明な問題に対して優れたモデルを学ぶことができるが、単純なPDEであっても、関連する物理現象を学習するのに失敗する可能性があることを実証する。
これらの障害モードは,NNアーキテクチャの表現力の欠如によるものではなく,PINNのセットアップによって損失状況の最適化が極めて困難であることを示す。
論文 参考訳(メタデータ) (2021-09-02T16:06:45Z) - Conditional physics informed neural networks [85.48030573849712]
固有値問題のクラス解を推定するための条件付きPINN(物理情報ニューラルネットワーク)を紹介します。
一つのディープニューラルネットワークが、問題全体に対する偏微分方程式の解を学習できることが示される。
論文 参考訳(メタデータ) (2021-04-06T18:29:14Z) - On the eigenvector bias of Fourier feature networks: From regression to
solving multi-scale PDEs with physics-informed neural networks [0.0]
ニューラルネットワーク(PINN)は、目標関数を近似する場合には、高周波またはマルチスケールの特徴を示す。
マルチスケールなランダムな観測機能を備えた新しいアーキテクチャを構築し、そのような座標埋め込み層が堅牢で正確なPINNモデルにどのように結びつくかを正当化します。
論文 参考訳(メタデータ) (2020-12-18T04:19:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。