論文の概要: Variational operator learning: A unified paradigm marrying training
neural operators and solving partial differential equations
- arxiv url: http://arxiv.org/abs/2304.04234v3
- Date: Thu, 9 Nov 2023 10:02:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-10 18:38:14.572030
- Title: Variational operator learning: A unified paradigm marrying training
neural operators and solving partial differential equations
- Title(参考訳): 変分演算子学習:訓練ニューラルネットワークと偏微分方程式を融合した統一パラダイム
- Authors: Tengfei Xu, Dachuan Liu, Peng Hao, Bo Wang
- Abstract要約: ニューラル演算子を訓練し、変分形式でPDEを解くための統一的な枠組みを提供する新しいパラダイムを提案する。
ラベルなしのトレーニングセットと5ラベルのみのシフトセットにより、VOLは、未ラベルデータの量に関して、そのテストエラーが電力法則で減少して解演算子を学習する。
- 参考スコア(独自算出の注目度): 9.148052787201797
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural operators as novel neural architectures for fast approximating
solution operators of partial differential equations (PDEs), have shown
considerable promise for future scientific computing. However, the mainstream
of training neural operators is still data-driven, which needs an expensive
ground-truth dataset from various sources (e.g., solving PDEs' samples with the
conventional solvers, real-world experiments) in addition to training stage
costs. From a computational perspective, marrying operator learning and
specific domain knowledge to solve PDEs is an essential step in reducing
dataset costs and label-free learning. We propose a novel paradigm that
provides a unified framework of training neural operators and solving PDEs with
the variational form, which we refer to as the variational operator learning
(VOL). Ritz and Galerkin approach with finite element discretization are
developed for VOL to achieve matrix-free approximation of system functional and
residual, then direct minimization and iterative update are proposed as two
optimization strategies for VOL. Various types of experiments based on
reasonable benchmarks about variable heat source, Darcy flow, and variable
stiffness elasticity are conducted to demonstrate the effectiveness of VOL.
With a label-free training set and a 5-label-only shift set, VOL learns
solution operators with its test errors decreasing in a power law with respect
to the amount of unlabeled data. To the best of the authors' knowledge, this is
the first study that integrates the perspectives of the weak form and efficient
iterative methods for solving sparse linear systems into the end-to-end
operator learning task.
- Abstract(参考訳): 偏微分方程式(PDE)の高速近似解演算子のための新しいニューラルネットワークとしてのニューラル演算子は、将来の科学計算にかなりの可能性を示してきた。
しかしながら、ニューラルネットワークのトレーニングの主流はまだデータ駆動であり、トレーニングステージのコストに加えて、さまざまなソース(例えば、従来のソルバによるpdesのサンプルの解決、実世界の実験など)からの高価な地上データセットが必要である。
計算の観点からは、PDEを解決するために演算子学習と特定のドメイン知識を組み合わせることは、データセットコストとラベルなし学習を減らすための重要なステップである。
本稿では,変分演算子学習(VOL)と呼ばれる,ニューラル演算子を訓練し,PDEを変分形式で解くための統一的な枠組みを提供する新しいパラダイムを提案する。
有限要素離散化によるリッツとガレルキンのアプローチをVOLに対して開発し,VOLの2つの最適化手法として,系関数と残差の行列自由近似を行い,直接最小化と反復更新を提案する。
可変熱源, ダーシー流, 可変剛性弾性に関する妥当なベンチマークに基づく各種実験を行い, VOLの有効性を実証した。
ラベルなしのトレーニングセットと5ラベルのみのシフトセットで、VOLは未ラベルデータの量に関して、そのテストエラーが電力法則で減少して解演算子を学習する。
著者の知識を最大限に活用するために、弱形式の視点と疎線形系をエンドツーエンドの演算子学習タスクに解く効率的な反復法を統合する最初の研究である。
関連論文リスト
- DeepONet as a Multi-Operator Extrapolation Model: Distributed Pretraining with Physics-Informed Fine-Tuning [6.635683993472882]
マルチオペレータ学習を実現するためのファインチューニング手法を提案する。
本手法は,事前学習における各種演算子からのデータを分散学習と組み合わせ,物理インフォームド手法によりゼロショット微調整が可能となる。
論文 参考訳(メタデータ) (2024-11-11T18:58:46Z) - DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [63.5925701087252]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - DeltaPhi: Learning Physical Trajectory Residual for PDE Solving [54.13671100638092]
我々は,物理軌道残差学習(DeltaPhi)を提案し,定式化する。
既存のニューラル演算子ネットワークに基づく残差演算子マッピングのサロゲートモデルについて学習する。
直接学習と比較して,PDEの解法には物理残差学習が望ましいと結論づける。
論文 参考訳(メタデータ) (2024-06-14T07:45:07Z) - Data-Efficient Operator Learning via Unsupervised Pretraining and In-Context Learning [45.78096783448304]
本研究では,PDE演算子学習のための教師なし事前学習を設計する。
シミュレーションソリューションを使わずにラベルなしのPDEデータをマイニングし、物理に着想を得た再構成ベースのプロキシタスクでニューラルネットワークを事前訓練する。
提案手法は,データ効率が高く,より一般化可能であり,従来の視覚予測モデルよりも優れる。
論文 参考訳(メタデータ) (2024-02-24T06:27:33Z) - Parametric Learning of Time-Advancement Operators for Unstable Flame
Evolution [0.0]
本研究では、パラメトリック偏微分方程式(PDE)に対する時間適応演算子学習への機械学習の適用について検討する。
我々の焦点は、PDEパラメータを表す追加入力を処理するために既存の演算子学習方法を拡張することである。
目標は、短期的なソリューションを正確に予測し、堅牢な長期統計を提供する統一的な学習アプローチを作ることだ。
論文 参考訳(メタデータ) (2024-02-14T18:12:42Z) - PICL: Physics Informed Contrastive Learning for Partial Differential Equations [7.136205674624813]
我々は,複数の支配方程式にまたがるニューラル演算子一般化を同時に改善する,新しいコントラスト事前学習フレームワークを開発する。
物理インフォームドシステムの進化と潜在空間モデル出力の組み合わせは、入力データに固定され、我々の距離関数で使用される。
物理インフォームドコントラストプレトレーニングにより,1次元および2次元熱,バーガーズ,線形対流方程式に対する固定フューチャーおよび自己回帰ロールアウトタスクにおけるフーリエニューラル演算子の精度が向上することがわかった。
論文 参考訳(メタデータ) (2024-01-29T17:32:22Z) - Physics-guided Data Augmentation for Learning the Solution Operator of
Linear Differential Equations [2.1850269949775663]
ニューラルネットワークモデルの精度と一般化を改善するために,物理誘導型データ拡張法(PGDA)を提案する。
様々な線形微分方程式におけるPGDAの利点を実証し、PGDAがサンプルの複雑さを向上し、分布シフトに頑健であることを示す。
論文 参考訳(メタデータ) (2022-12-08T06:29:15Z) - Semi-supervised Learning of Partial Differential Operators and Dynamical
Flows [68.77595310155365]
本稿では,超ネットワーク解法とフーリエニューラル演算子アーキテクチャを組み合わせた新しい手法を提案する。
本手法は, 1次元, 2次元, 3次元の非線形流体を含む様々な時間発展PDEを用いて実験を行った。
その結果、新しい手法は、監督点の時点における学習精度を向上し、任意の中間時間にその解を補間できることを示した。
論文 参考訳(メタデータ) (2022-07-28T19:59:14Z) - Equivariant vector field network for many-body system modeling [65.22203086172019]
Equivariant Vector Field Network (EVFN) は、新しい同変層と関連するスカラー化およびベクトル化層に基づいて構築されている。
シミュレーションされたニュートン力学系の軌跡を全観測データと部分観測データで予測する手法について検討した。
論文 参考訳(メタデータ) (2021-10-26T14:26:25Z) - Large-scale Neural Solvers for Partial Differential Equations [48.7576911714538]
偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
最近の数値解法では、基礎となる方程式を手動で離散化するだけでなく、分散コンピューティングのための高度で調整されたコードも必要である。
偏微分方程式, 物理インフォームドニューラルネットワーク(PINN)に対する連続メッシュフリーニューラルネットワークの適用性について検討する。
本稿では,解析解に関するGatedPINNの精度と,スペクトル解法などの最先端数値解法について論じる。
論文 参考訳(メタデータ) (2020-09-08T13:26:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。