論文の概要: On the Compatibility between a Neural Network and a Partial Differential
Equation for Physics-informed Learning
- arxiv url: http://arxiv.org/abs/2212.00270v1
- Date: Thu, 1 Dec 2022 04:27:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 17:35:30.864441
- Title: On the Compatibility between a Neural Network and a Partial Differential
Equation for Physics-informed Learning
- Title(参考訳): 物理形学習におけるニューラルネットワークと偏微分方程式の適合性について
- Authors: Kuangdai Leng and Jeyan Thiyagalingam
- Abstract要約: 私たちは、落とし穴と物理インフォームドニューラルネットワーク(PINN)の機会に光を当てた。
我々は、ReLU(Rectified Linear Unit)やReLUライクなリプシッツ活性化関数のみを持つ多層パーセプトロン(MLP)が、常に消滅したヘッセンへと導くことを証明した。
この落とし穴に触発されて、$n$-階までの線形PDEが、外層超平面によって厳密に満足できることを証明した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We shed light on a pitfall and an opportunity in physics-informed neural
networks (PINNs). We prove that a multilayer perceptron (MLP) only with ReLU
(Rectified Linear Unit) or ReLU-like Lipschitz activation functions will always
lead to a vanished Hessian. Such a network-imposed constraint contradicts any
second- or higher-order partial differential equations (PDEs). Therefore, a
ReLU-based MLP cannot form a permissible function space for the approximation
of their solutions. Inspired by this pitfall, we prove that a linear PDE up to
the $n$-th order can be strictly satisfied by an MLP with $C^n$ activation
functions when the weights of its output layer lie on a certain hyperplane, as
called the out-layer-hyperplane. An MLP equipped with the out-layer-hyperplane
becomes "physics-enforced", no longer requiring a loss function for the PDE
itself (but only those for the initial and boundary conditions). Such a
hyperplane exists not only for MLPs but for any network architecture tailed by
a fully-connected hidden layer. To our knowledge, this should be the first PINN
architecture that enforces point-wise correctness of a PDE. We give the
closed-form expression of the out-layer-hyperplane for second-order linear PDEs
and provide an implementation.
- Abstract(参考訳): 私たちは、落とし穴と物理情報ニューラルネットワーク(PINN)の機会に光を当てました。
relu(rectified linear unit)またはreluライクリプシッツ活性化関数のみを持つ多層パーセプトロン(mlp)は、常に消滅したヘッシアンをもたらす。
このようなネットワーク上の制約は、二階あるいは高階の偏微分方程式(PDE)と矛盾する。
したがって、ReLU ベースの MLP は、それらの解の近似に対する許容関数空間を形成できない。
この落とし穴に着想を得て、出力層の重みが特定の超平面上にあるとき、$C^n$ 活性化関数を持つ MLP で$n$-階までの線形 PDE が厳密に満足できることを証明した。
層外超平面を備えたMLPは、PDE自体の損失関数(初期条件と境界条件のみ)を必要としない「物理強化」となる。
このような超平面は、MLPだけでなく、完全に接続された隠された層によって尾行されるネットワークアーキテクチャにも存在している。
私たちの知る限り、これはPDEのポイントワイドな正しさを強制する最初のPINNアーキテクチャであるべきです。
2階線形PDEに対する外層超平面の閉形式表現と実装について述べる。
関連論文リスト
- Deep Equilibrium Based Neural Operators for Steady-State PDEs [100.88355782126098]
定常PDEに対する重み付けニューラルネットワークアーキテクチャの利点について検討する。
定常PDEの解を直接解くFNOアーキテクチャの深い平衡変種であるFNO-DEQを提案する。
論文 参考訳(メタデータ) (2023-11-30T22:34:57Z) - Deep Learning of Delay-Compensated Backstepping for Reaction-Diffusion
PDEs [2.2869182375774613]
複数の演算子は異なるPDEクラスからPDEシステムの制御に現れる。
DeepONet近似非線形作用素(DeepONet-approximated linear operator)は、グールサット形式の1つの双曲的PDEと長方形上の1つの放物的PDEによって定義される作用素のカスケード/合成である。
遅延補償型PDEバックステッピングコントローラでは、プラント状態の$L2$ノルムと入力遅延状態の$H1$ノルムの指数的安定性が保証される。
論文 参考訳(メタデータ) (2023-08-21T06:42:33Z) - iPINNs: Incremental learning for Physics-informed neural networks [66.4795381419701]
物理インフォームドニューラルネットワーク(PINN)は、最近偏微分方程式(PDE)を解く強力なツールとなっている。
本稿では,新しいタスクのパラメータを追加せずに連続的に複数のタスクを学習できるインクリメンタルPINNを提案する。
提案手法は,PDEごとに個別のサブネットワークを作成し,従来のサブネットワークと重なり合うようにすることで,最も単純なPDEから複数のPDEを学習する。
論文 参考訳(メタデータ) (2023-04-10T20:19:20Z) - Solving High-Dimensional PDEs with Latent Spectral Models [74.1011309005488]
我々は,高次元PDEの効率的かつ高精度な解法に向けて,Latent Spectral Models (LSM) を提案する。
数値解析において古典スペクトル法に着想を得て,潜時空間におけるPDEを解くために,ニューラルスペクトルブロックを設計する。
LSMは、一貫した最先端を実現し、7つのベンチマークで平均11.5%の相対的な利益を得る。
論文 参考訳(メタデータ) (2023-01-30T04:58:40Z) - Neural Network Approximations of PDEs Beyond Linearity: A
Representational Perspective [40.964402478629495]
非線形PDEの解を近似するためのニューラルネットワークの表現力について検討する。
Emphnonlinear elliptic variational PDEsとして知られるPDEのクラスを扱うことで、ニューラルネットワークは次元性の呪いを避けることができることを示す。
論文 参考訳(メタデータ) (2022-10-21T16:53:18Z) - Neural Q-learning for solving PDEs [0.0]
我々は,強化学習にQ-ラーニングアルゴリズムを適用し,楕円型PDEを解くための新しい数値法を開発した。
我々の「Q-PDE」アルゴリズムはメッシュフリーであり、従って次元の呪いを克服する可能性がある。
楕円型PDEに対するQ-PDEアルゴリズムの数値計算性能について検討した。
論文 参考訳(メタデータ) (2022-03-31T15:52:44Z) - Lie Point Symmetry Data Augmentation for Neural PDE Solvers [69.72427135610106]
本稿では,ニューラルPDEソルバサンプルの複雑性を改善することにより,この問題を部分的に緩和する手法を提案する。
PDEの文脈では、データ変換の完全なリストを定量的に導き出せることが分かりました。
神経性PDEソルバサンプルの複雑さを桁違いに改善するために、どのように容易に展開できるかを示す。
論文 参考訳(メタデータ) (2022-02-15T18:43:17Z) - Physics-Informed Neural Operator for Learning Partial Differential
Equations [55.406540167010014]
PINOは、演算子を学ぶために異なる解像度でデータとPDE制約を組み込んだ最初のハイブリッドアプローチである。
結果の PINO モデルは、多くの人気のある PDE ファミリの基底構造解演算子を正確に近似することができる。
論文 参考訳(メタデータ) (2021-11-06T03:41:34Z) - Solving PDEs on Unknown Manifolds with Machine Learning [8.220217498103315]
本稿では,未知多様体上の楕円型PDEを解くためのメッシュフリー計算フレームワークと機械学習理論を提案する。
提案したNNソルバは,新しいデータポイント上の一般化とほぼ同一の誤差を持つ新しいデータポイント上でPDEを強固に一般化できることを示す。
論文 参考訳(メタデータ) (2021-06-12T03:55:15Z) - dNNsolve: an efficient NN-based PDE solver [62.997667081978825]
ODE/PDEを解決するためにデュアルニューラルネットワークを利用するdNNsolveを紹介します。
我々は,dNNsolveが1,2,3次元の幅広いODE/PDEを解くことができることを示す。
論文 参考訳(メタデータ) (2021-03-15T19:14:41Z) - On the convergence of physics informed neural networks for linear
second-order elliptic and parabolic type PDEs [0.0]
物理情報ニューラルネットワーク(PINN)は、偏微分方程式(PDE)を解くためのディープラーニングに基づく技術である
最小化器の列は$C0$でPDE解に強く収束することを示す。
私たちの知る限りでは、PINNの一貫性を示す最初の理論的研究である。
論文 参考訳(メタデータ) (2020-04-03T22:59:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。