論文の概要: Train Once and Use Forever: Solving Boundary Value Problems in Unseen
Domains with Pre-trained Deep Learning Models
- arxiv url: http://arxiv.org/abs/2104.10873v1
- Date: Thu, 22 Apr 2021 05:20:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-23 21:46:55.344837
- Title: Train Once and Use Forever: Solving Boundary Value Problems in Unseen
Domains with Pre-trained Deep Learning Models
- Title(参考訳): 学習時間と使用時間:事前学習深層学習モデルを用いた未確認領域の境界値問題の解法
- Authors: Hengjie Wang, Robert Planas, Aparna Chandramowlishwaran, Ramin
Bostanabad
- Abstract要約: 本稿では,ニューラルネットワークを用いて境界値問題(BVP)を解くための伝達可能なフレームワークを提案する。
まず,任意の境界条件にまたがるbvpの解を推論できるニューラルネットワークであるgfnet(emphgenomic flow network)を提案する。
そこで我々は,GFNetの推論を組み立てたりステッチしたりする新しい反復アルゴリズムである emphmosaic flow (MF) 予測器を提案する。
- 参考スコア(独自算出の注目度): 0.20999222360659606
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Physics-informed neural networks (PINNs) are increasingly employed to
replace/augment traditional numerical methods in solving partial differential
equations (PDEs). While having many attractive features, state-of-the-art PINNs
surrogate a specific realization of a PDE system and hence are
problem-specific. That is, each time the boundary conditions and domain shape
change, the model needs to be re-trained. This limitation prohibits the
application of PINNs in realistic or large-scale engineering problems
especially since the costs and efforts associated with their training are
considerable.
This paper introduces a transferable framework for solving boundary value
problems (BVPs) via deep neural networks which can be trained once and used
forever for various domains of unseen sizes, shapes, and boundary conditions.
First, we introduce \emph{genomic flow network} (GFNet), a neural network that
can infer the solution of a BVP across arbitrary boundary conditions on a small
square domain called \emph{genome}. Then, we propose \emph{mosaic flow} (MF)
predictor, a novel iterative algorithm that assembles or stitches the GFNet's
inferences to obtain the solution of BVPs on unseen, large domains while
preserving the spatial regularity of the solution. We demonstrate that our
framework can estimate the solution of Laplace and Navier-Stokes equations in
domains of unseen shapes and boundary conditions that are, respectively, $1200$
and $12$ times larger than the domains where training is performed. Since our
framework eliminates the need to re-train, it demonstrates up to 3 orders of
magnitude speedups compared to the state-of-the-art.
- Abstract(参考訳): 物理学的不定形ニューラルネットワーク(pinns)は、偏微分方程式(pdes)の解法における従来の数値解法を置き換えるためにますます使われている。
多くの魅力的な特徴があるが、最先端のPINNはPDEシステムの特定の実現を代理しており、そのため問題固有のものである。
つまり、境界条件とドメイン形状が変わるたびに、モデルを再トレーニングする必要があります。
この制限は、特にトレーニングに関連するコストと労力がかなり大きいため、現実的または大規模エンジニアリング問題へのPINNの適用を禁止している。
本稿では、深層ニューラルネットワークを用いて境界値問題(BVP)を解決するための伝達可能なフレームワークを提案する。
まず,小さな正方形領域上の任意の境界条件に対して,bvpの解を推定できるニューラルネットワークである \emph{genomic flow network} (gfnet) を導入する。
そこで我々は、GFNetの推論を組み立てたり縫ったりして、空間的正則性を保ちながら、見えない大きな領域でBVPの解を得る新しい反復アルゴリズムである「emph{mosaic flow} (MF)」予測器を提案する。
筆者らのフレームワークは, 未確認形状と境界条件の領域におけるLaplace方程式とNavier-Stokes方程式の解を, トレーニングを行う領域よりも1,200ドル, 12ドル大きく見積もることができることを示した。
我々のフレームワークはトレーニングを不要にするため、最先端と比較して最大3桁のスピードアップを示す。
関連論文リスト
- Non-overlapping, Schwarz-type Domain Decomposition Method for Physics and Equality Constrained Artificial Neural Networks [0.24578723416255746]
一般化されたインタフェース条件を持つ非重複型シュワルツ型領域分解法を提案する。
提案手法は,各サブドメイン内の物理と等価性制約付き人工ニューラルネットワーク(PECANN)を用いている。
ドメイン分解法では、ポアソン方程式とヘルムホルツ方程式の両方の解を学ぶことができる。
論文 参考訳(メタデータ) (2024-09-20T16:48:55Z) - Extremization to Fine Tune Physics Informed Neural Networks for Solving Boundary Value Problems [0.1874930567916036]
関数接続理論(TFC)は、(I)BVPの初期および境界条件(IBC)をPINNに正確に課すために用いられる。
本稿では,TFCフレームワークであるReduceed TFCを改良し,PINNのトレーニングおよび推論時間を大幅に改善することを示す。
論文 参考訳(メタデータ) (2024-06-07T23:25:13Z) - Physics-Informed Boundary Integral Networks (PIBI-Nets): A Data-Driven Approach for Solving Partial Differential Equations [1.6435014180036467]
偏微分方程式(PDE)は力学系の関連する現象を記述するために広く用いられる。
高次元設定では、PINNは計算領域全体にわたって密度の高いコロケーションポイントを必要とするため、しばしば計算上の問題に悩まされる。
本稿では,PDEを元の問題空間よりも1次元以下で解くためのデータ駆動手法として,Physical-Informed Boundary Networks(PIBI-Nets)を提案する。
論文 参考訳(メタデータ) (2023-08-18T14:03:34Z) - Neural Fields with Hard Constraints of Arbitrary Differential Order [61.49418682745144]
我々は、ニューラルネットワークに厳しい制約を課すための一連のアプローチを開発する。
制約は、ニューラルネットワークとそのデリバティブに適用される線形作用素として指定することができる。
私たちのアプローチは、広範囲の現実世界のアプリケーションで実証されています。
論文 参考訳(メタデータ) (2023-06-15T08:33:52Z) - A Stable and Scalable Method for Solving Initial Value PDEs with Neural
Networks [52.5899851000193]
我々は,ネットワークの条件が悪くなるのを防止し,パラメータ数で時間線形に動作するODEベースのIPPソルバを開発した。
このアプローチに基づく現在の手法は2つの重要な問題に悩まされていることを示す。
まず、ODEに従うと、問題の条件付けにおいて制御不能な成長が生じ、最終的に許容できないほど大きな数値誤差が生じる。
論文 参考訳(メタデータ) (2023-04-28T17:28:18Z) - BINN: A deep learning approach for computational mechanics problems
based on boundary integral equations [4.397337158619076]
計算力学における境界値問題に対する境界積分型ニューラルネットワーク(BINN)を提案する。
境界積分方程式は、すべての未知を境界に転送するために使用され、その後、未知をニューラルネットワークを用いて近似し、トレーニングプロセスを通じて解決する。
論文 参考訳(メタデータ) (2023-01-11T14:10:23Z) - Improved Training of Physics-Informed Neural Networks with Model
Ensembles [81.38804205212425]
我々は、PINNを正しい解に収束させるため、解区間を徐々に拡大することを提案する。
すべてのアンサンブルのメンバーは、観測されたデータの近くで同じ解に収束する。
提案手法は, 得られた解の精度を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-04-11T14:05:34Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Physics and Equality Constrained Artificial Neural Networks: Application
to Partial Differential Equations [1.370633147306388]
偏微分方程式(PDE)の解を学ぶために物理インフォームドニューラルネットワーク(PINN)が提案されている。
本稿では,この目的関数の定式化方法が,PINNアプローチにおける厳密な制約の源であることを示す。
本稿では,逆問題と前方問題の両方に対処可能な多目的フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-30T05:55:35Z) - dNNsolve: an efficient NN-based PDE solver [62.997667081978825]
ODE/PDEを解決するためにデュアルニューラルネットワークを利用するdNNsolveを紹介します。
我々は,dNNsolveが1,2,3次元の幅広いODE/PDEを解くことができることを示す。
論文 参考訳(メタデータ) (2021-03-15T19:14:41Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。