論文の概要: TransNet: Transferable Neural Networks for Partial Differential
Equations
- arxiv url: http://arxiv.org/abs/2301.11701v1
- Date: Fri, 27 Jan 2023 13:26:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-30 15:36:53.145088
- Title: TransNet: Transferable Neural Networks for Partial Differential
Equations
- Title(参考訳): TransNet:部分微分方程式のための伝達可能なニューラルネットワーク
- Authors: Zezhong Zhang, Feng Bao, Lili Ju, Guannan Zhang
- Abstract要約: 既存の転送学習アプローチでは、その定式化や事前学習のためのソリューションのデータなど、ターゲットPDEの多くの情報を必要とする。
本稿では,PDE情報を用いることなく,純粋関数近似の観点から伝達可能なニューラル特徴空間を構築することを提案する。
- 参考スコア(独自算出の注目度): 14.15250342406011
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transfer learning for partial differential equations (PDEs) is to develop a
pre-trained neural network that can be used to solve a wide class of PDEs.
Existing transfer learning approaches require much information of the target
PDEs such as its formulation and/or data of its solution for pre-training. In
this work, we propose to construct transferable neural feature spaces from
purely function approximation perspectives without using PDE information. The
construction of the feature space involves re-parameterization of the hidden
neurons and uses auxiliary functions to tune the resulting feature space.
Theoretical analysis shows the high quality of the produced feature space,
i.e., uniformly distributed neurons. Extensive numerical experiments verify the
outstanding performance of our method, including significantly improved
transferability, e.g., using the same feature space for various PDEs with
different domains and boundary conditions, and the superior accuracy, e.g.,
several orders of magnitude smaller mean squared error than the state of the
art methods.
- Abstract(参考訳): 偏微分方程式(PDE)の伝達学習は、幅広い種類のPDEを解くために使用できる事前学習ニューラルネットワークを開発することである。
既存の転送学習アプローチでは、その定式化や事前学習のためのソリューションのデータなど、ターゲットPDEの多くの情報を必要とする。
本研究では,PDE情報を用いることなく,純粋関数近似の観点から伝達可能なニューラル特徴空間を構築することを提案する。
特徴空間の構築は、隠れたニューロンの再パラメータ化を含み、機能空間を調整するために補助関数を使用する。
理論的解析は、生成した機能空間、すなわち一様分散ニューロンの高品質を示す。
例えば、ドメインや境界条件の異なる様々なPDEに対して、同じ特徴空間を同じ特徴空間で使用することや、より優れた精度、例えば、最先端の平均二乗誤差の桁数が、最先端の手法よりも桁違いに小さいことなどである。
関連論文リスト
- Grad-Shafranov equilibria via data-free physics informed neural networks [0.0]
PINNはいくつかの異なる境界条件でGrad-Shafranov方程式を正確かつ効果的に解くことができることを示す。
パラメータ化PINNフレームワークを導入し、入力空間を圧力、アスペクト比、伸長、三角度などの変数を含むように拡張する。
論文 参考訳(メタデータ) (2023-11-22T16:08:38Z) - Neural Partial Differential Equations with Functional Convolution [30.35306295442881]
本稿では、隠れた構造を発見し、異なる非線形PDEの解を予測するために、軽量なニューラルPDE表現を提案する。
我々は、数値PDE微分演算子の「翻訳類似性」の先行を利用して、学習モデルとトレーニングデータのスケールを大幅に削減する。
論文 参考訳(メタデータ) (2023-03-10T04:25:38Z) - Solving High-Dimensional PDEs with Latent Spectral Models [74.1011309005488]
我々は,高次元PDEの効率的かつ高精度な解法に向けて,Latent Spectral Models (LSM) を提案する。
数値解析において古典スペクトル法に着想を得て,潜時空間におけるPDEを解くために,ニューラルスペクトルブロックを設計する。
LSMは、一貫した最先端を実現し、7つのベンチマークで平均11.5%の相対的な利益を得る。
論文 参考訳(メタデータ) (2023-01-30T04:58:40Z) - Learning differentiable solvers for systems with hard constraints [48.54197776363251]
ニューラルネットワーク(NN)によって定義される関数に対する偏微分方程式(PDE)制約を強制する実践的手法を提案する。
我々は、任意のNNアーキテクチャに組み込むことができる微分可能なPDE制約層を開発した。
その結果、NNアーキテクチャに直接ハード制約を組み込むことで、制約のない目的のトレーニングに比べてテストエラーがはるかに少ないことがわかった。
論文 参考訳(メタデータ) (2022-07-18T15:11:43Z) - A mixed formulation for physics-informed neural networks as a potential
solver for engineering problems in heterogeneous domains: comparison with
finite element method [0.0]
物理インフォームドニューラルネットワーク(PINN)は、与えられた境界値問題の解を見つけることができる。
工学的問題における既存のPINNの性能を高めるために,有限要素法(FEM)からいくつかのアイデアを取り入れた。
論文 参考訳(メタデータ) (2022-06-27T08:18:08Z) - LordNet: Learning to Solve Parametric Partial Differential Equations
without Simulated Data [63.55861160124684]
本稿では,離散化されたPDEによって構築された平均2乗残差(MSR)損失から,ニューラルネットワークが直接物理を学習する一般データ自由パラダイムを提案する。
具体的には,低ランク分解ネットワーク(LordNet)を提案する。
Poisson方程式とNavier-Stokes方程式を解く実験は、MSR損失による物理的制約がニューラルネットワークの精度と能力を向上させることを実証している。
論文 参考訳(メタデータ) (2022-06-19T14:41:08Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - Adversarial Multi-task Learning Enhanced Physics-informed Neural
Networks for Solving Partial Differential Equations [9.823102211212582]
本稿では,多タスク学習手法,不確実性強調損失,勾配手術を学習pdeソリューションの文脈で活用する新しいアプローチを提案する。
実験では,提案手法が有効であることが判明し,従来手法と比較して未発見のデータポイントの誤差を低減できた。
論文 参考訳(メタデータ) (2021-04-29T13:17:46Z) - Large-scale Neural Solvers for Partial Differential Equations [48.7576911714538]
偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
最近の数値解法では、基礎となる方程式を手動で離散化するだけでなく、分散コンピューティングのための高度で調整されたコードも必要である。
偏微分方程式, 物理インフォームドニューラルネットワーク(PINN)に対する連続メッシュフリーニューラルネットワークの適用性について検討する。
本稿では,解析解に関するGatedPINNの精度と,スペクトル解法などの最先端数値解法について論じる。
論文 参考訳(メタデータ) (2020-09-08T13:26:51Z) - Neural Operator: Graph Kernel Network for Partial Differential Equations [57.90284928158383]
この作業はニューラルネットワークを一般化し、無限次元空間(演算子)間の写像を学習できるようにすることである。
非線形活性化関数と積分作用素のクラスを構成することにより、無限次元写像の近似を定式化する。
実験により,提案したグラフカーネルネットワークには所望の特性があり,最先端技術と比較した場合の競合性能を示すことが確認された。
論文 参考訳(メタデータ) (2020-03-07T01:56:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。