論文の概要: Discovering Governing Equations by Machine Learning implemented with
Invariance
- arxiv url: http://arxiv.org/abs/2203.15586v1
- Date: Tue, 29 Mar 2022 14:01:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-30 21:03:15.228281
- Title: Discovering Governing Equations by Machine Learning implemented with
Invariance
- Title(参考訳): 不変性を用いた機械学習による統治方程式の発見
- Authors: Chao Chen, Xiaowei Jin, Hui Li
- Abstract要約: 本稿では,制御方程式の学習手法としてGSNN (Galileo Neural Network) とLSNN (Lorentz Symbolic Neural Network) を提案する。
物理的制約の強制埋め込みの採用は、損失関数の形でPINNと根本的に異なる。
本研究で提案する手法は, 精度, パーシモニー, 解釈可能性に優れていた。
- 参考スコア(独自算出の注目度): 9.014669470289965
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The partial differential equation (PDE) plays a significantly important role
in many fields of science and engineering. The conventional case of the
derivation of PDE mainly relies on first principles and empirical observation.
However, the development of machine learning technology allows us to mine
potential control equations from the massive amounts of stored data in a fresh
way. Although there has been considerable progress in the data-driven discovery
of PDE, the extant literature mostly focuses on the improvements of discovery
methods, without substantial breakthroughs in the discovery process itself,
including the principles for the construction of candidates and how to
incorporate physical priors. In this paper, through rigorous derivation of
formulas, novel physically enhanced machining learning discovery methods for
control equations: GSNN (Galileo Symbolic Neural Network) and LSNN (Lorentz
Symbolic Neural Network) are firstly proposed based on Galileo invariance and
Lorentz invariance respectively, setting forth guidelines for building the
candidates of discovering equations. The adoption of mandatory embedding of
physical constraints is fundamentally different from PINN in the form of the
loss function, thus ensuring that the designed Neural Network strictly obeys
the physical prior of invariance and enhancing the interpretability of the
network. By comparing the results with PDE-NET in numerical experiments of
Burgers equation and Sine-Gordon equation, it shows that the method presented
in this study has better accuracy, parsimony, and interpretability.
- Abstract(参考訳): 偏微分方程式(PDE)は多くの科学・工学分野において重要な役割を果たす。
従来のpdeの導出は、主に第一原理と経験的観察に依存している。
しかし、機械学習技術の開発により、膨大な量の蓄積データから潜在的な制御方程式を新しい方法で掘り出すことができる。
データ駆動によるPDEの発見にはかなりの進展があったが、現存する文献は主に発見方法の改善に焦点を当てており、発見プロセス自体に重大なブレークスルーはなく、候補の構築の原則や物理的な先行事項の組み入れ方などが含まれる。
本稿では, 公式の厳密な導出を通じて, 制御方程式の物理的拡張型加工学習発見法について, ガリレオ不変性とロレンツ不変性に基づいてgsnn (galileo symbolic neural network) とlsnn (lorentz symbolic neural network) が提案され, 方程式発見の候補を構築するためのガイドラインが策定された。
物理的制約の強制的な埋め込みは、損失関数の形でPINNと根本的に異なるため、設計されたニューラルネットワークは、ネットワークの不変性の物理的優先に厳密に従い、解釈可能性を高める。
バーガース方程式とSine-Gordon方程式の数値実験におけるPDE-NETとの比較により, 本研究で提示した手法は精度, パーシモニー, 解釈可能性に優れていた。
関連論文リスト
- Quantifying Training Difficulty and Accelerating Convergence in Neural Network-Based PDE Solvers [9.936559796069844]
ニューラルネットワークに基づくPDEソルバのトレーニングダイナミクスについて検討する。
統一分割(PoU)と分散スケーリング(VS)という2つの手法が有効ランクを高めていることがわかった。
PINNやDeep Ritz、オペレータ学習フレームワークのDeepOnetなど、人気のあるPDE解決フレームワークを使用した実験では、これらのテクニックが収束を継続的に加速することを確認した。
論文 参考訳(メタデータ) (2024-10-08T19:35:19Z) - DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [63.5925701087252]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - Characteristic Performance Study on Solving Oscillator ODEs via Soft-constrained Physics-informed Neural Network with Small Data [6.3295494018089435]
本稿では,物理インフォームドニューラルネットワーク(PINN),従来のニューラルネットワーク(NN),および微分方程式(DE)に関する従来の数値離散化法を比較した。
我々は,ソフト制約のPINNアプローチに注目し,その数学的枠組みと計算フローを正規Dsと部分Dsの解法として定式化した。
我々は、PINNのDeepXDEベースの実装が、トレーニングにおいて軽量コードであり、効率的なだけでなく、CPU/GPUプラットフォーム間で柔軟なことを実証した。
論文 参考訳(メタデータ) (2024-08-19T13:02:06Z) - Knowledge-Based Convolutional Neural Network for the Simulation and Prediction of Two-Phase Darcy Flows [3.5707423185282656]
物理インフォームドニューラルネットワーク(PINN)は、科学計算とシミュレーションの分野で強力なツールとして注目されている。
本稿では、ニューラルネットワークのパワーと、離散化微分方程式によって課される力学を組み合わせることを提案する。
支配方程式を識別することにより、PINNは不連続性を考慮し、入力と出力の間の基礎となる関係を正確に捉えることを学ぶ。
論文 参考訳(メタデータ) (2024-04-04T06:56:32Z) - Spectral-Bias and Kernel-Task Alignment in Physically Informed Neural
Networks [4.604003661048267]
物理情報ニューラルネットワーク(PINN)は微分方程式の解法として有望である。
この重要な問題に光を当てる包括的な理論的枠組みを提案する。
我々は、PINN予測を大容量データセット限界で支配する積分微分方程式を導出する。
論文 参考訳(メタデータ) (2023-07-12T18:00:02Z) - Learning Neural Constitutive Laws From Motion Observations for
Generalizable PDE Dynamics [97.38308257547186]
多くのNNアプローチは、支配的PDEと物質モデルの両方を暗黙的にモデル化するエンドツーエンドモデルを学ぶ。
PDEの管理はよく知られており、学習よりも明示的に実施されるべきである、と私たちは主張する。
そこで我々は,ネットワークアーキテクチャを利用したニューラル構成則(Neural Constitutive Laws,NCLaw)と呼ばれる新しいフレームワークを導入する。
論文 参考訳(メタデータ) (2023-04-27T17:42:24Z) - A mixed formulation for physics-informed neural networks as a potential
solver for engineering problems in heterogeneous domains: comparison with
finite element method [0.0]
物理インフォームドニューラルネットワーク(PINN)は、与えられた境界値問題の解を見つけることができる。
工学的問題における既存のPINNの性能を高めるために,有限要素法(FEM)からいくつかのアイデアを取り入れた。
論文 参考訳(メタデータ) (2022-06-27T08:18:08Z) - Evaluating the Adversarial Robustness for Fourier Neural Operators [78.36413169647408]
フーリエ・ニューラル・オペレータ(FNO)は、ゼロショット超解像で乱流をシミュレートした最初の人物である。
我々はノルム有界データ入力摂動に基づくFNOの逆例を生成する。
以上の結果から,モデルの強靭性は摂動レベルの増加とともに急速に低下することが明らかとなった。
論文 参考訳(メタデータ) (2022-04-08T19:19:42Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - Physics-Informed Neural Operator for Learning Partial Differential
Equations [55.406540167010014]
PINOは、演算子を学ぶために異なる解像度でデータとPDE制約を組み込んだ最初のハイブリッドアプローチである。
結果の PINO モデルは、多くの人気のある PDE ファミリの基底構造解演算子を正確に近似することができる。
論文 参考訳(メタデータ) (2021-11-06T03:41:34Z) - Incorporating NODE with Pre-trained Neural Differential Operator for
Learning Dynamics [73.77459272878025]
ニューラル微分演算子(NDO)の事前学習による動的学習における教師付き信号の強化を提案する。
NDOは記号関数のクラスで事前訓練され、これらの関数の軌跡サンプルとそれらの導関数とのマッピングを学習する。
我々は,NDOの出力が,ライブラリの複雑さを適切に調整することで,基礎となる真理微分を適切に近似できることを理論的に保証する。
論文 参考訳(メタデータ) (2021-06-08T08:04:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。