論文の概要: Lie Point Symmetry and Physics Informed Networks
- arxiv url: http://arxiv.org/abs/2311.04293v1
- Date: Tue, 7 Nov 2023 19:07:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-09 17:54:27.665063
- Title: Lie Point Symmetry and Physics Informed Networks
- Title(参考訳): リーポイント対称性と物理情報ネットワーク
- Authors: Tara Akhound-Sadegh, Laurence Perreault-Levasseur, Johannes
Brandstetter, Max Welling, Siamak Ravanbakhsh
- Abstract要約: 本稿では、損失関数を用いて、PINNモデルが基礎となるPDEを強制しようとするのと同じように、リー点対称性をネットワークに通知するロス関数を提案する。
我々の対称性の損失は、リー群の無限小生成元がPDE解を保存することを保証する。
実験により,PDEのリー点対称性による誘導バイアスはPINNの試料効率を大幅に向上させることが示された。
- 参考スコア(独自算出の注目度): 59.56218517113066
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Symmetries have been leveraged to improve the generalization of neural
networks through different mechanisms from data augmentation to equivariant
architectures. However, despite their potential, their integration into neural
solvers for partial differential equations (PDEs) remains largely unexplored.
We explore the integration of PDE symmetries, known as Lie point symmetries, in
a major family of neural solvers known as physics-informed neural networks
(PINNs). We propose a loss function that informs the network about Lie point
symmetries in the same way that PINN models try to enforce the underlying PDE
through a loss function. Intuitively, our symmetry loss ensures that the
infinitesimal generators of the Lie group conserve the PDE solutions.
Effectively, this means that once the network learns a solution, it also learns
the neighbouring solutions generated by Lie point symmetries. Empirical
evaluations indicate that the inductive bias introduced by the Lie point
symmetries of the PDEs greatly boosts the sample efficiency of PINNs.
- Abstract(参考訳): 対称性は、データ拡張から同変アーキテクチャへの様々なメカニズムを通じて、ニューラルネットワークの一般化を改善するために利用されてきた。
しかし、そのポテンシャルにもかかわらず、偏微分方程式(PDE)に対するニューラルソルバへの統合はほとんど未解明のままである。
物理学インフォームドニューラルネットワーク(PINN)として知られるニューラルネットワークのメインファミリーにおけるPDE対称性(リーポイント対称性)の統合について検討する。
我々は,pinnモデルが損失関数を通じて基盤となるpdeを強制しようとするのと同じように,ネットワークにリーポイント対称性を知らせる損失関数を提案する。
直感的には、我々の対称性損失はリー群の無限小生成元がPDE解を保存することを保証する。
これは、ネットワークが解を学ぶと、リー点対称性によって生成される隣り合う解も学習することを意味する。
実験により,PDEのリー点対称性による誘導バイアスはPINNの試料効率を大幅に向上させることが示された。
関連論文リスト
- The Role of Fibration Symmetries in Geometric Deep Learning [0.0]
Geometric Deep Learning (GDL)は、対称性の観点から機械学習技術の幅広いクラスを統一する。
我々はGDLを緩和し、局所対称性、特にグラフのフィブレーション対称性が現実的なインスタンスの規則性を利用することを可能にすることを提案する。
GNNは、フィブレーション対称性の誘導バイアスを適用し、その表現力に対してより強い上限を導出する。
論文 参考訳(メタデータ) (2024-08-28T16:04:40Z) - The Empirical Impact of Neural Parameter Symmetries, or Lack Thereof [50.49582712378289]
ニューラル・ネットワーク・アーキテクチャの導入により,ニューラル・パラメータ・対称性の影響について検討する。
我々は,パラメータ空間対称性を低減するために,標準的なニューラルネットワークを改良する2つの手法を開発した。
実験により,パラメータ対称性の経験的影響に関する興味深い観察がいくつか示された。
論文 参考訳(メタデータ) (2024-05-30T16:32:31Z) - Symmetry group based domain decomposition to enhance physics-informed neural networks for solving partial differential equations [3.3360424430642848]
我々は、リー対称性群を有するPDEの前方および逆問題を解くために、PINNを強化するための対称性群に基づく領域分解戦略を提案する。
前方問題に対して、まず対称群を配置し、フレキシブルに調整可能な既知の解情報を有する分割線を生成する。
次に,PINN法と対称性向上型PINN法を用いて,各サブドメインの解を学習し,最終的にPDEの全体解に縫合する。
論文 参考訳(メタデータ) (2024-04-29T09:27:17Z) - Deep Equilibrium Based Neural Operators for Steady-State PDEs [100.88355782126098]
定常PDEに対する重み付けニューラルネットワークアーキテクチャの利点について検討する。
定常PDEの解を直接解くFNOアーキテクチャの深い平衡変種であるFNO-DEQを提案する。
論文 参考訳(メタデータ) (2023-11-30T22:34:57Z) - Adaptive Log-Euclidean Metrics for SPD Matrix Learning [73.12655932115881]
広く使われているログユークリッド計量(LEM)を拡張した適応ログユークリッド計量(ALEM)を提案する。
実験および理論的結果から,SPDニューラルネットワークの性能向上における提案手法の有効性が示された。
論文 参考訳(メタデータ) (2023-03-26T18:31:52Z) - CP-PINNs: Data-Driven Changepoints Detection in PDEs Using Online Optimized Physics-Informed Neural Networks [0.0]
与えられたPDEダイナミクスのパラメータがランダムに変化点を示すシナリオにおける部分微分方程式(PDE)の逆問題について検討する。
物理インフォームドニューラルネットワーク(PINN)は,物理法則の解を推定できる普遍近似器である。
本稿では,PDE力学における複数の変更点を許容できる全変量ペナルティを用いたPINN拡張を提案する。
論文 参考訳(メタデータ) (2022-08-18T04:01:07Z) - Lie Point Symmetry Data Augmentation for Neural PDE Solvers [69.72427135610106]
本稿では,ニューラルPDEソルバサンプルの複雑性を改善することにより,この問題を部分的に緩和する手法を提案する。
PDEの文脈では、データ変換の完全なリストを定量的に導き出せることが分かりました。
神経性PDEソルバサンプルの複雑さを桁違いに改善するために、どのように容易に展開できるかを示す。
論文 参考訳(メタデータ) (2022-02-15T18:43:17Z) - Mean-field Analysis of Piecewise Linear Solutions for Wide ReLU Networks [83.58049517083138]
勾配勾配勾配を用いた2層ReLUネットワークについて検討する。
SGDは単純な解に偏りがあることが示される。
また,データポイントと異なる場所で結び目が発生するという経験的証拠も提供する。
論文 参考訳(メタデータ) (2021-11-03T15:14:20Z) - DiffNet: Neural Field Solutions of Parametric Partial Differential
Equations [30.80582606420882]
我々は、ニューラルネットワークをトレーニングし、PDEに対するソリューションのフィールド予測を生成するメッシュベースのアプローチを検討する。
パラメトリック楕円PDE上の有限要素法(FEM)に基づく重み付きガレルキン損失関数を用いる。
PDE に対する有限要素解に展開されたメッシュ収束解析に類似した,理論的に検証し,実験により考察する。
論文 参考訳(メタデータ) (2021-10-04T17:59:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。