論文の概要: Variational operator learning: A unified paradigm for training neural
operators and solving partial differential equations
- arxiv url: http://arxiv.org/abs/2304.04234v1
- Date: Sun, 9 Apr 2023 13:20:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-11 16:51:07.665872
- Title: Variational operator learning: A unified paradigm for training neural
operators and solving partial differential equations
- Title(参考訳): 変分演算子学習:ニューラルネットワークの訓練と偏微分方程式の解法のための統一パラダイム
- Authors: Tengfei Xu, Dachuan Liu, Peng Hao, Bo Wang
- Abstract要約: 本稿では、ニューラル演算子を訓練し、偏微分方程式を解くための統一的な枠組みを提供する新しいパラダイムを提案する。
まず、ニューラル演算子によって与えられるノード解予測から、システムの関数近似を導出する。
次に, 線形系の残差を導出する前向きの伝搬ループを構築し, 自動微分による変分操作を行う。
- 参考スコア(独自算出の注目度): 5.6158524154686855
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Based on the variational method, we propose a novel paradigm that provides a
unified framework of training neural operators and solving partial differential
equations (PDEs) with the variational form, which we refer to as the
variational operator learning (VOL). We first derive the functional
approximation of the system from the node solution prediction given by neural
operators, and then conduct the variational operation by automatic
differentiation, constructing a forward-backward propagation loop to derive the
residual of the linear system. One or several update steps of the steepest
decent method (SD) and the conjugate gradient method (CG) are provided in every
iteration as a cheap yet effective update for training the neural operators.
Experimental results show the proposed VOL can learn a variety of solution
operators in PDEs of the steady heat transfer and the variable stiffness
elasticity with satisfactory results and small error. The proposed VOL achieves
nearly label-free training. Only five to ten labels are used for the output
distribution-shift session in all experiments. Generalization benefits of the
VOL are investigated and discussed.
- Abstract(参考訳): 本稿では,変分演算子学習(VOL)と呼ばれる変分演算子学習(VOL)を用いて,ニューラル演算子を訓練し,偏微分方程式(PDE)を解くための統一的な枠組みを提案する。
まず,神経演算子が与えるノード解予測から系の関数近似を導出し,自動微分による変分演算を行い,線形系の残差を導出するための前方後方伝播ループを構築する。
最も急な適切な方法(SD)と共役勾配法(CG)の1つまたは複数の更新ステップは、神経オペレータを訓練するための安価で効果的な更新として、イテレーション毎に提供される。
実験結果から, 定常熱伝達と可変剛性弾性のPDEにおける様々な解演算子を, 良好な結果と少ない誤差で学習できることが示唆された。
提案したVOLは,ほぼラベルのないトレーニングを実現する。
すべての実験で出力分散シフトセッションに使用されるラベルは5つから10つのみである。
VOLの一般化の利点について検討し,考察した。
関連論文リスト
- Data-Efficient Operator Learning via Unsupervised Pretraining and
In-Context Learning [48.51023783276896]
PDE演算子学習のための教師なし事前学習とコンテキスト学習を設計する。
提案手法は,データ効率が高く,より一般化可能であり,従来の視覚予測モデルよりも優れる。
論文 参考訳(メタデータ) (2024-02-24T06:27:33Z) - Parametric Learning of Time-Advancement Operators for Unstable Flame
Evolution [0.0]
本研究では、パラメトリック偏微分方程式(PDE)に対する時間適応演算子学習への機械学習の適用について検討する。
我々の焦点は、PDEパラメータを表す追加入力を処理するために既存の演算子学習方法を拡張することである。
目標は、短期的なソリューションを正確に予測し、堅牢な長期統計を提供する統一的な学習アプローチを作ることだ。
論文 参考訳(メタデータ) (2024-02-14T18:12:42Z) - PICL: Physics Informed Contrastive Learning for Partial Differential
Equations [8.430481660019451]
一般化されたコントラスト的損失を利用した新しいコントラスト的事前学習フレームワークを開発した。
物理インフォームドコントラストプレトレーニングは、固定未来タスクにおけるフーリエニューラル演算子の精度と一般化の両方を改善する。
論文 参考訳(メタデータ) (2024-01-29T17:32:22Z) - Physics informed WNO [0.0]
パラメトリック偏微分方程式(PDE)系の解演算子をラベル付きトレーニングデータなしで学習するための物理インフォームドウェーブレット演算子(WNO)を提案する。
このフレームワークの有効性は、工学と科学の様々な分野に関連する4つの非線形ニューラルネットワークで検証され、実証されている。
論文 参考訳(メタデータ) (2023-02-12T14:31:50Z) - Physics-guided Data Augmentation for Learning the Solution Operator of
Linear Differential Equations [2.1850269949775663]
ニューラルネットワークモデルの精度と一般化を改善するために,物理誘導型データ拡張法(PGDA)を提案する。
様々な線形微分方程式におけるPGDAの利点を実証し、PGDAがサンプルの複雑さを向上し、分布シフトに頑健であることを示す。
論文 参考訳(メタデータ) (2022-12-08T06:29:15Z) - Semi-supervised Learning of Partial Differential Operators and Dynamical
Flows [68.77595310155365]
本稿では,超ネットワーク解法とフーリエニューラル演算子アーキテクチャを組み合わせた新しい手法を提案する。
本手法は, 1次元, 2次元, 3次元の非線形流体を含む様々な時間発展PDEを用いて実験を行った。
その結果、新しい手法は、監督点の時点における学習精度を向上し、任意の中間時間にその解を補間できることを示した。
論文 参考訳(メタデータ) (2022-07-28T19:59:14Z) - Physics-Informed Neural Operator for Learning Partial Differential
Equations [55.406540167010014]
PINOは、演算子を学ぶために異なる解像度でデータとPDE制約を組み込んだ最初のハイブリッドアプローチである。
結果の PINO モデルは、多くの人気のある PDE ファミリの基底構造解演算子を正確に近似することができる。
論文 参考訳(メタデータ) (2021-11-06T03:41:34Z) - Equivariant vector field network for many-body system modeling [65.22203086172019]
Equivariant Vector Field Network (EVFN) は、新しい同変層と関連するスカラー化およびベクトル化層に基づいて構築されている。
シミュレーションされたニュートン力学系の軌跡を全観測データと部分観測データで予測する手法について検討した。
論文 参考訳(メタデータ) (2021-10-26T14:26:25Z) - Incorporating NODE with Pre-trained Neural Differential Operator for
Learning Dynamics [73.77459272878025]
ニューラル微分演算子(NDO)の事前学習による動的学習における教師付き信号の強化を提案する。
NDOは記号関数のクラスで事前訓練され、これらの関数の軌跡サンプルとそれらの導関数とのマッピングを学習する。
我々は,NDOの出力が,ライブラリの複雑さを適切に調整することで,基礎となる真理微分を適切に近似できることを理論的に保証する。
論文 参考訳(メタデータ) (2021-06-08T08:04:47Z) - Large-scale Neural Solvers for Partial Differential Equations [48.7576911714538]
偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
最近の数値解法では、基礎となる方程式を手動で離散化するだけでなく、分散コンピューティングのための高度で調整されたコードも必要である。
偏微分方程式, 物理インフォームドニューラルネットワーク(PINN)に対する連続メッシュフリーニューラルネットワークの適用性について検討する。
本稿では,解析解に関するGatedPINNの精度と,スペクトル解法などの最先端数値解法について論じる。
論文 参考訳(メタデータ) (2020-09-08T13:26:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。