論文の概要: TransNet: Transferable Neural Networks for Partial Differential
Equations
- arxiv url: http://arxiv.org/abs/2301.11701v1
- Date: Fri, 27 Jan 2023 13:26:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-30 15:36:53.145088
- Title: TransNet: Transferable Neural Networks for Partial Differential
Equations
- Title(参考訳): TransNet:部分微分方程式のための伝達可能なニューラルネットワーク
- Authors: Zezhong Zhang, Feng Bao, Lili Ju, Guannan Zhang
- Abstract要約: 既存の転送学習アプローチでは、その定式化や事前学習のためのソリューションのデータなど、ターゲットPDEの多くの情報を必要とする。
本稿では,PDE情報を用いることなく,純粋関数近似の観点から伝達可能なニューラル特徴空間を構築することを提案する。
- 参考スコア(独自算出の注目度): 14.15250342406011
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transfer learning for partial differential equations (PDEs) is to develop a
pre-trained neural network that can be used to solve a wide class of PDEs.
Existing transfer learning approaches require much information of the target
PDEs such as its formulation and/or data of its solution for pre-training. In
this work, we propose to construct transferable neural feature spaces from
purely function approximation perspectives without using PDE information. The
construction of the feature space involves re-parameterization of the hidden
neurons and uses auxiliary functions to tune the resulting feature space.
Theoretical analysis shows the high quality of the produced feature space,
i.e., uniformly distributed neurons. Extensive numerical experiments verify the
outstanding performance of our method, including significantly improved
transferability, e.g., using the same feature space for various PDEs with
different domains and boundary conditions, and the superior accuracy, e.g.,
several orders of magnitude smaller mean squared error than the state of the
art methods.
- Abstract(参考訳): 偏微分方程式(PDE)の伝達学習は、幅広い種類のPDEを解くために使用できる事前学習ニューラルネットワークを開発することである。
既存の転送学習アプローチでは、その定式化や事前学習のためのソリューションのデータなど、ターゲットPDEの多くの情報を必要とする。
本研究では,PDE情報を用いることなく,純粋関数近似の観点から伝達可能なニューラル特徴空間を構築することを提案する。
特徴空間の構築は、隠れたニューロンの再パラメータ化を含み、機能空間を調整するために補助関数を使用する。
理論的解析は、生成した機能空間、すなわち一様分散ニューロンの高品質を示す。
例えば、ドメインや境界条件の異なる様々なPDEに対して、同じ特徴空間を同じ特徴空間で使用することや、より優れた精度、例えば、最先端の平均二乗誤差の桁数が、最先端の手法よりも桁違いに小さいことなどである。
関連論文リスト
- Finite Operator Learning: Bridging Neural Operators and Numerical Methods for Efficient Parametric Solution and Optimization of PDEs [0.0]
本稿では,ニューラルネットワーク,物理情報処理機械学習,およびPDEを解くための標準的な数値法を組み合わせた手法を提案する。
データのない方法で偏微分方程式をパラメトリックに解き、正確な感度を与えることができる。
本研究では, 不均一材料中の定常熱方程式に着目した。
論文 参考訳(メタデータ) (2024-07-04T21:23:12Z) - DeltaPhi: Learning Physical Trajectory Residual for PDE Solving [54.13671100638092]
我々は,物理軌道残差学習(DeltaPhi)を提案し,定式化する。
既存のニューラル演算子ネットワークに基づく残差演算子マッピングのサロゲートモデルについて学習する。
直接学習と比較して,PDEの解法には物理残差学習が望ましいと結論づける。
論文 参考訳(メタデータ) (2024-06-14T07:45:07Z) - Solving partial differential equations with sampled neural networks [1.8590821261905535]
偏微分方程式(PDE)に対する解の近似は計算科学や工学において重要な問題である。
データに依存しない確率分布から、アンザッツネットワークの隠れた重みとバイアスをサンプリングすることで、両課題を進展させる方法について論じる。
論文 参考訳(メタデータ) (2024-05-31T14:24:39Z) - Diffusion models as probabilistic neural operators for recovering unobserved states of dynamical systems [49.2319247825857]
拡散に基づく生成モデルは、ニューラル演算子に好適な多くの特性を示す。
本稿では,複数のタスクに適応可能な単一モデルを,トレーニング中のタスク間で交互に学習することを提案する。
論文 参考訳(メタデータ) (2024-05-11T21:23:55Z) - Pretraining Codomain Attention Neural Operators for Solving Multiphysics PDEs [85.40198664108624]
PDEを用いた多物理問題の解法として,コドメイン注意ニューラル演算子(CoDA-NO)を提案する。
CoDA-NOはコドメインやチャネル空間に沿った機能をトークン化し、複数のPDEシステムの自己教師付き学習や事前訓練を可能にする。
CoDA-NOは、データ制限のある複雑な下流タスクにおいて、既存のメソッドを36%以上上回ります。
論文 参考訳(メタデータ) (2024-03-19T08:56:20Z) - Grad-Shafranov equilibria via data-free physics informed neural networks [0.0]
PINNはいくつかの異なる境界条件でGrad-Shafranov方程式を正確かつ効果的に解くことができることを示す。
パラメータ化PINNフレームワークを導入し、入力空間を圧力、アスペクト比、伸長、三角度などの変数を含むように拡張する。
論文 参考訳(メタデータ) (2023-11-22T16:08:38Z) - Neural Partial Differential Equations with Functional Convolution [30.35306295442881]
本稿では、隠れた構造を発見し、異なる非線形PDEの解を予測するために、軽量なニューラルPDE表現を提案する。
我々は、数値PDE微分演算子の「翻訳類似性」の先行を利用して、学習モデルとトレーニングデータのスケールを大幅に削減する。
論文 参考訳(メタデータ) (2023-03-10T04:25:38Z) - Learning differentiable solvers for systems with hard constraints [48.54197776363251]
ニューラルネットワーク(NN)によって定義される関数に対する偏微分方程式(PDE)制約を強制する実践的手法を提案する。
我々は、任意のNNアーキテクチャに組み込むことができる微分可能なPDE制約層を開発した。
その結果、NNアーキテクチャに直接ハード制約を組み込むことで、制約のない目的のトレーニングに比べてテストエラーがはるかに少ないことがわかった。
論文 参考訳(メタデータ) (2022-07-18T15:11:43Z) - Adversarial Multi-task Learning Enhanced Physics-informed Neural
Networks for Solving Partial Differential Equations [9.823102211212582]
本稿では,多タスク学習手法,不確実性強調損失,勾配手術を学習pdeソリューションの文脈で活用する新しいアプローチを提案する。
実験では,提案手法が有効であることが判明し,従来手法と比較して未発見のデータポイントの誤差を低減できた。
論文 参考訳(メタデータ) (2021-04-29T13:17:46Z) - Large-scale Neural Solvers for Partial Differential Equations [48.7576911714538]
偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
最近の数値解法では、基礎となる方程式を手動で離散化するだけでなく、分散コンピューティングのための高度で調整されたコードも必要である。
偏微分方程式, 物理インフォームドニューラルネットワーク(PINN)に対する連続メッシュフリーニューラルネットワークの適用性について検討する。
本稿では,解析解に関するGatedPINNの精度と,スペクトル解法などの最先端数値解法について論じる。
論文 参考訳(メタデータ) (2020-09-08T13:26:51Z) - Neural Operator: Graph Kernel Network for Partial Differential Equations [57.90284928158383]
この作業はニューラルネットワークを一般化し、無限次元空間(演算子)間の写像を学習できるようにすることである。
非線形活性化関数と積分作用素のクラスを構成することにより、無限次元写像の近似を定式化する。
実験により,提案したグラフカーネルネットワークには所望の特性があり,最先端技術と比較した場合の競合性能を示すことが確認された。
論文 参考訳(メタデータ) (2020-03-07T01:56:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。