論文の概要: Variational operator learning: A unified paradigm for training neural
operators and solving partial differential equations
- arxiv url: http://arxiv.org/abs/2304.04234v1
- Date: Sun, 9 Apr 2023 13:20:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-11 16:51:07.665872
- Title: Variational operator learning: A unified paradigm for training neural
operators and solving partial differential equations
- Title(参考訳): 変分演算子学習:ニューラルネットワークの訓練と偏微分方程式の解法のための統一パラダイム
- Authors: Tengfei Xu, Dachuan Liu, Peng Hao, Bo Wang
- Abstract要約: 本稿では、ニューラル演算子を訓練し、偏微分方程式を解くための統一的な枠組みを提供する新しいパラダイムを提案する。
まず、ニューラル演算子によって与えられるノード解予測から、システムの関数近似を導出する。
次に, 線形系の残差を導出する前向きの伝搬ループを構築し, 自動微分による変分操作を行う。
- 参考スコア(独自算出の注目度): 5.6158524154686855
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Based on the variational method, we propose a novel paradigm that provides a
unified framework of training neural operators and solving partial differential
equations (PDEs) with the variational form, which we refer to as the
variational operator learning (VOL). We first derive the functional
approximation of the system from the node solution prediction given by neural
operators, and then conduct the variational operation by automatic
differentiation, constructing a forward-backward propagation loop to derive the
residual of the linear system. One or several update steps of the steepest
decent method (SD) and the conjugate gradient method (CG) are provided in every
iteration as a cheap yet effective update for training the neural operators.
Experimental results show the proposed VOL can learn a variety of solution
operators in PDEs of the steady heat transfer and the variable stiffness
elasticity with satisfactory results and small error. The proposed VOL achieves
nearly label-free training. Only five to ten labels are used for the output
distribution-shift session in all experiments. Generalization benefits of the
VOL are investigated and discussed.
- Abstract(参考訳): 本稿では,変分演算子学習(VOL)と呼ばれる変分演算子学習(VOL)を用いて,ニューラル演算子を訓練し,偏微分方程式(PDE)を解くための統一的な枠組みを提案する。
まず,神経演算子が与えるノード解予測から系の関数近似を導出し,自動微分による変分演算を行い,線形系の残差を導出するための前方後方伝播ループを構築する。
最も急な適切な方法(SD)と共役勾配法(CG)の1つまたは複数の更新ステップは、神経オペレータを訓練するための安価で効果的な更新として、イテレーション毎に提供される。
実験結果から, 定常熱伝達と可変剛性弾性のPDEにおける様々な解演算子を, 良好な結果と少ない誤差で学習できることが示唆された。
提案したVOLは,ほぼラベルのないトレーニングを実現する。
すべての実験で出力分散シフトセッションに使用されるラベルは5つから10つのみである。
VOLの一般化の利点について検討し,考察した。
関連論文リスト
- DeepONet as a Multi-Operator Extrapolation Model: Distributed Pretraining with Physics-Informed Fine-Tuning [6.635683993472882]
マルチオペレータ学習を実現するためのファインチューニング手法を提案する。
本手法は,事前学習における各種演算子からのデータを分散学習と組み合わせ,物理インフォームド手法によりゼロショット微調整が可能となる。
論文 参考訳(メタデータ) (2024-11-11T18:58:46Z) - DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [63.5925701087252]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - DeltaPhi: Learning Physical Trajectory Residual for PDE Solving [54.13671100638092]
我々は,物理軌道残差学習(DeltaPhi)を提案し,定式化する。
既存のニューラル演算子ネットワークに基づく残差演算子マッピングのサロゲートモデルについて学習する。
直接学習と比較して,PDEの解法には物理残差学習が望ましいと結論づける。
論文 参考訳(メタデータ) (2024-06-14T07:45:07Z) - Data-Efficient Operator Learning via Unsupervised Pretraining and In-Context Learning [45.78096783448304]
本研究では,PDE演算子学習のための教師なし事前学習を設計する。
シミュレーションソリューションを使わずにラベルなしのPDEデータをマイニングし、物理に着想を得た再構成ベースのプロキシタスクでニューラルネットワークを事前訓練する。
提案手法は,データ効率が高く,より一般化可能であり,従来の視覚予測モデルよりも優れる。
論文 参考訳(メタデータ) (2024-02-24T06:27:33Z) - Parametric Learning of Time-Advancement Operators for Unstable Flame
Evolution [0.0]
本研究では、パラメトリック偏微分方程式(PDE)に対する時間適応演算子学習への機械学習の適用について検討する。
我々の焦点は、PDEパラメータを表す追加入力を処理するために既存の演算子学習方法を拡張することである。
目標は、短期的なソリューションを正確に予測し、堅牢な長期統計を提供する統一的な学習アプローチを作ることだ。
論文 参考訳(メタデータ) (2024-02-14T18:12:42Z) - PICL: Physics Informed Contrastive Learning for Partial Differential Equations [7.136205674624813]
我々は,複数の支配方程式にまたがるニューラル演算子一般化を同時に改善する,新しいコントラスト事前学習フレームワークを開発する。
物理インフォームドシステムの進化と潜在空間モデル出力の組み合わせは、入力データに固定され、我々の距離関数で使用される。
物理インフォームドコントラストプレトレーニングにより,1次元および2次元熱,バーガーズ,線形対流方程式に対する固定フューチャーおよび自己回帰ロールアウトタスクにおけるフーリエニューラル演算子の精度が向上することがわかった。
論文 参考訳(メタデータ) (2024-01-29T17:32:22Z) - Physics-guided Data Augmentation for Learning the Solution Operator of
Linear Differential Equations [2.1850269949775663]
ニューラルネットワークモデルの精度と一般化を改善するために,物理誘導型データ拡張法(PGDA)を提案する。
様々な線形微分方程式におけるPGDAの利点を実証し、PGDAがサンプルの複雑さを向上し、分布シフトに頑健であることを示す。
論文 参考訳(メタデータ) (2022-12-08T06:29:15Z) - Semi-supervised Learning of Partial Differential Operators and Dynamical
Flows [68.77595310155365]
本稿では,超ネットワーク解法とフーリエニューラル演算子アーキテクチャを組み合わせた新しい手法を提案する。
本手法は, 1次元, 2次元, 3次元の非線形流体を含む様々な時間発展PDEを用いて実験を行った。
その結果、新しい手法は、監督点の時点における学習精度を向上し、任意の中間時間にその解を補間できることを示した。
論文 参考訳(メタデータ) (2022-07-28T19:59:14Z) - Equivariant vector field network for many-body system modeling [65.22203086172019]
Equivariant Vector Field Network (EVFN) は、新しい同変層と関連するスカラー化およびベクトル化層に基づいて構築されている。
シミュレーションされたニュートン力学系の軌跡を全観測データと部分観測データで予測する手法について検討した。
論文 参考訳(メタデータ) (2021-10-26T14:26:25Z) - Large-scale Neural Solvers for Partial Differential Equations [48.7576911714538]
偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
最近の数値解法では、基礎となる方程式を手動で離散化するだけでなく、分散コンピューティングのための高度で調整されたコードも必要である。
偏微分方程式, 物理インフォームドニューラルネットワーク(PINN)に対する連続メッシュフリーニューラルネットワークの適用性について検討する。
本稿では,解析解に関するGatedPINNの精度と,スペクトル解法などの最先端数値解法について論じる。
論文 参考訳(メタデータ) (2020-09-08T13:26:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。