論文の概要: Augmented Physics-Informed Neural Networks (APINNs): A gating
network-based soft domain decomposition methodology
- arxiv url: http://arxiv.org/abs/2211.08939v3
- Date: Sat, 30 Sep 2023 02:42:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-03 21:00:05.519192
- Title: Augmented Physics-Informed Neural Networks (APINNs): A gating
network-based soft domain decomposition methodology
- Title(参考訳): Augmented Physics-Informed Neural Networks (APINNs): ゲーティングネットワークに基づくソフトドメイン分解手法
- Authors: Zheyuan Hu, Ameya D. Jagtap, George Em Karniadakis, Kenji Kawaguchi
- Abstract要約: APINNは、ソフトでトレーニング可能なドメイン分解とフレキシブルなパラメータ共有を採用している。
特に、XPINNのハード分解を模倣するために、トレーニング可能なゲートネットワークが使用される。
- 参考スコア(独自算出の注目度): 27.164040990410065
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we propose the augmented physics-informed neural network
(APINN), which adopts soft and trainable domain decomposition and flexible
parameter sharing to further improve the extended PINN (XPINN) as well as the
vanilla PINN methods. In particular, a trainable gate network is employed to
mimic the hard decomposition of XPINN, which can be flexibly fine-tuned for
discovering a potentially better partition. It weight-averages several sub-nets
as the output of APINN. APINN does not require complex interface conditions,
and its sub-nets can take advantage of all training samples rather than just
part of the training data in their subdomains. Lastly, each sub-net shares part
of the common parameters to capture the similar components in each decomposed
function. Furthermore, following the PINN generalization theory in Hu et al.
[2021], we show that APINN can improve generalization by proper gate network
initialization and general domain & function decomposition. Extensive
experiments on different types of PDEs demonstrate how APINN improves the PINN
and XPINN methods. Specifically, we present examples where XPINN performs
similarly to or worse than PINN, so that APINN can significantly improve both.
We also show cases where XPINN is already better than PINN, so APINN can still
slightly improve XPINN. Furthermore, we visualize the optimized gating networks
and their optimization trajectories, and connect them with their performance,
which helps discover the possibly optimal decomposition. Interestingly, if
initialized by different decomposition, the performances of corresponding
APINNs can differ drastically. This, in turn, shows the potential to design an
optimal domain decomposition for the differential equation problem under
consideration.
- Abstract(参考訳): 本稿では、拡張PINN(XPINN)とバニラPINN法をさらに改善するために、ソフトで訓練可能なドメイン分解とフレキシブルパラメータ共有を採用した拡張物理情報ニューラルネットワーク(APINN)を提案する。
特に、訓練可能なゲートネットワークを使用してxpinnのハード分解を模倣し、より優れたパーティションを見つけるために柔軟に微調整することができる。
APINNの出力として、いくつかのサブネットを重み付けする。
APINNは複雑なインターフェース条件を必要としない。そのサブネットは、サブドメイン内のトレーニングデータの一部だけでなく、すべてのトレーニングサンプルを利用することができる。
最後に、各サブネットは、分解された各関数の類似コンポーネントをキャプチャするために共通のパラメータの一部を共有する。
さらに、Hu et al の PINN 一般化理論に従う。
2021] 固有ゲートネットワークの初期化と一般ドメインと関数の分解により,apinnは一般化を改善できることを示す。
異なるタイプのPDEに関する大規模な実験は、APINNがPINNとXPINNメソッドをどのように改善するかを示している。
具体的には, XPINN が PINN と似ているか悪いかを示す。
また、すでにXPINNがPINNより優れているケースも示しています。
さらに,最適化されたゲーティングネットワークとその最適化トラジェクトリを可視化し,それらの性能と接続することで,最適分解の発見に役立てる。
興味深いことに、異なる分解によって初期化されると、対応するAPINNのパフォーマンスは大きく異なる可能性がある。
このことは、考慮中の微分方程式問題に対して最適領域分解を設計する可能性を示している。
関連論文リスト
- RoPINN: Region Optimized Physics-Informed Neural Networks [66.38369833561039]
物理インフォームドニューラルネットワーク(PINN)は偏微分方程式(PDE)の解法として広く応用されている。
本稿では,地域最適化としての新たな訓練パラダイムを提案し,理論的に検討する。
実践的なトレーニングアルゴリズムであるRerea Optimized PINN(RoPINN)は、この新しいパラダイムからシームレスに派生している。
論文 参考訳(メタデータ) (2024-05-23T09:45:57Z) - Densely Multiplied Physics Informed Neural Networks [1.8554335256160261]
物理インフォームドニューラルネットワーク(PINN)は非線形偏微分方程式(PDE)を扱う大きな可能性を示している
本稿では,PINNの性能向上のためにニューラルネットワークアーキテクチャを改良する。
本稿では,隠れたレイヤの出力と隠れたレイヤの出力とを乗算する,密乗型PINN(DM-PINN)アーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-02-06T20:45:31Z) - PINNsFormer: A Transformer-Based Framework For Physics-Informed Neural Networks [22.39904196850583]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)の数値解を近似するための有望なディープラーニングフレームワークとして登場した。
我々は,この制限に対処するために,新しいTransformerベースのフレームワークであるPINNsFormerを紹介した。
PINNsFormerは、PINNの障害モードや高次元PDEなど、様々なシナリオにおいて優れた一般化能力と精度を実現する。
論文 参考訳(メタデータ) (2023-07-21T18:06:27Z) - Separable PINN: Mitigating the Curse of Dimensionality in
Physics-Informed Neural Networks [6.439575695132489]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆問題の両方に新しいデータ駆動型PDEソルバとして登場した。
自動微分(AD)の計算は、PINNのトレーニングにおいて前方モードADを活用することで大幅に削減できることを示す。
我々は、より効率的な計算のために、前進モードADを容易に行える分離可能なPINN(SPINN)と呼ばれるネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-11-16T08:46:52Z) - Anisotropic, Sparse and Interpretable Physics-Informed Neural Networks
for PDEs [0.0]
我々は,従来のSPINN(Sparse, Physics-informed, Interpretable Neural Networks)と呼ばれる異方性拡張であるASPINNを提案し,PDEを解く。
ASPINNはラジアル基底関数ネットワークを一般化する。
また、ASPINNのトレーニングを教師付き学習アルゴリズムに近い形式に合理化します。
論文 参考訳(メタデータ) (2022-07-01T12:24:43Z) - Enforcing Continuous Physical Symmetries in Deep Learning Network for
Solving Partial Differential Equations [3.6317085868198467]
我々は,PDEのリー対称性によって誘導される不変表面条件をPINNの損失関数に組み込む,新しい対称性を持つ物理情報ニューラルネットワーク(SPINN)を提案する。
SPINNは、トレーニングポイントが少なく、ニューラルネットワークのよりシンプルなアーキテクチャで、PINNよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-06-19T00:44:22Z) - Auto-PINN: Understanding and Optimizing Physics-Informed Neural
Architecture [77.59766598165551]
物理インフォームドニューラルネットワーク(PINN)は、ディープラーニングのパワーを科学計算にもたらし、科学と工学の実践に革命をもたらしている。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法をPINN設計に適用したAuto-PINNを提案する。
標準PDEベンチマークを用いた包括的事前実験により、PINNの構造と性能の関係を探索することができる。
論文 参考訳(メタデータ) (2022-05-27T03:24:31Z) - Revisiting PINNs: Generative Adversarial Physics-informed Neural
Networks and Point-weighting Method [70.19159220248805]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)を数値的に解くためのディープラーニングフレームワークを提供する
本稿では,GA機構とPINNの構造を統合したGA-PINNを提案する。
本稿では,Adaboost法の重み付け戦略からヒントを得て,PINNのトレーニング効率を向上させるためのPW法を提案する。
論文 参考訳(メタデータ) (2022-05-18T06:50:44Z) - Improved Training of Physics-Informed Neural Networks with Model
Ensembles [81.38804205212425]
我々は、PINNを正しい解に収束させるため、解区間を徐々に拡大することを提案する。
すべてのアンサンブルのメンバーは、観測されたデータの近くで同じ解に収束する。
提案手法は, 得られた解の精度を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-04-11T14:05:34Z) - dNNsolve: an efficient NN-based PDE solver [62.997667081978825]
ODE/PDEを解決するためにデュアルニューラルネットワークを利用するdNNsolveを紹介します。
我々は,dNNsolveが1,2,3次元の幅広いODE/PDEを解くことができることを示す。
論文 参考訳(メタデータ) (2021-03-15T19:14:41Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。