論文の概要: Physics-guided Data Augmentation for Learning the Solution Operator of
Linear Differential Equations
- arxiv url: http://arxiv.org/abs/2212.04100v1
- Date: Thu, 8 Dec 2022 06:29:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 16:09:51.135098
- Title: Physics-guided Data Augmentation for Learning the Solution Operator of
Linear Differential Equations
- Title(参考訳): 線形微分方程式の解演算子学習のための物理誘導データ拡張
- Authors: Ye Li, Yiwen Pang, and Bin Shan
- Abstract要約: ニューラルネットワークモデルの精度と一般化を改善するために,物理誘導型データ拡張法(PGDA)を提案する。
様々な線形微分方程式におけるPGDAの利点を実証し、PGDAがサンプルの複雑さを向上し、分布シフトに頑健であることを示す。
- 参考スコア(独自算出の注目度): 2.1850269949775663
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural networks, especially the recent proposed neural operator models, are
increasingly being used to find the solution operator of differential
equations. Compared to traditional numerical solvers, they are much faster and
more efficient in practical applications. However, one critical issue is that
training neural operator models require large amount of ground truth data,
which usually comes from the slow numerical solvers. In this paper, we propose
a physics-guided data augmentation (PGDA) method to improve the accuracy and
generalization of neural operator models. Training data is augmented naturally
through the physical properties of differential equations such as linearity and
translation. We demonstrate the advantage of PGDA on a variety of linear
differential equations, showing that PGDA can improve the sample complexity and
is robust to distributional shift.
- Abstract(参考訳): ニューラルネットワーク、特に最近提案されたニューラル演算子モデルは、微分方程式の解演算子を見つけるためにますます使われている。
従来の数値解法と比較して、実用用途ではより高速で効率的である。
しかし、1つの重要な問題は、神経オペレーターモデルのトレーニングには大量の基底真理データが必要であることである。
本稿では,ニューラルオペレータモデルの精度と一般化を改善するための物理誘導データ拡張法(pgda)を提案する。
トレーニングデータは、線形性や変換といった微分方程式の物理的性質を通じて自然に拡張される。
様々な線形微分方程式におけるPGDAの利点を実証し、PGDAがサンプルの複雑さを向上し、分布シフトに頑健であることを示す。
関連論文リスト
- PICL: Physics Informed Contrastive Learning for Partial Differential
Equations [8.430481660019451]
一般化されたコントラスト的損失を利用した新しいコントラスト的事前学習フレームワークを開発した。
物理インフォームドコントラストプレトレーニングは、固定未来タスクにおけるフーリエニューラル演算子の精度と一般化の両方を改善する。
論文 参考訳(メタデータ) (2024-01-29T17:32:22Z) - Generalization Error Guaranteed Auto-Encoder-Based Nonlinear Model
Reduction for Operator Learning [12.124206935054389]
本稿では,オートエンコーダベースニューラルネットワーク(AENet)によるモデル縮小における低次元非線形構造の利用について述べる。
数値実験により,非線形偏微分方程式の解演算子を正確に学習する能力について検証した。
我々の理論的枠組みは、AENetのトレーニングのサンプルの複雑さが、モデル化されたプロセスの本質的な次元と複雑に結びついていることを示している。
論文 参考訳(メタデータ) (2024-01-19T05:01:43Z) - Training Deep Surrogate Models with Large Scale Online Learning [48.7576911714538]
ディープラーニングアルゴリズムは、PDEの高速解を得るための有効な代替手段として登場した。
モデルは通常、ソルバによって生成された合成データに基づいてトレーニングされ、ディスクに格納され、トレーニングのために読み返される。
ディープサロゲートモデルのためのオープンソースのオンライントレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-28T12:02:27Z) - Variational operator learning: A unified paradigm marrying training
neural operators and solving partial differential equations [9.148052787201797]
ニューラル演算子を訓練し、変分形式でPDEを解くための統一的な枠組みを提供する新しいパラダイムを提案する。
ラベルなしのトレーニングセットと5ラベルのみのシフトセットにより、VOLは、未ラベルデータの量に関して、そのテストエラーが電力法則で減少して解演算子を学習する。
論文 参考訳(メタデータ) (2023-04-09T13:20:19Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Solving differential equations using physics informed deep learning: a
hand-on tutorial with benchmark tests [0.0]
ディープラーニングとニューラルネットワークによる微分方程式の解法について再検討する。
トレーニングプロセスに最小限のデータを使用する可能性に焦点を当てます。
単純な方程式モデルに関するチュートリアルは、通常の微分方程式の方法の実践方法を説明している。
論文 参考訳(メタデータ) (2023-02-23T16:08:39Z) - Incorporating NODE with Pre-trained Neural Differential Operator for
Learning Dynamics [73.77459272878025]
ニューラル微分演算子(NDO)の事前学習による動的学習における教師付き信号の強化を提案する。
NDOは記号関数のクラスで事前訓練され、これらの関数の軌跡サンプルとそれらの導関数とのマッピングを学習する。
我々は,NDOの出力が,ライブラリの複雑さを適切に調整することで,基礎となる真理微分を適切に近似できることを理論的に保証する。
論文 参考訳(メタデータ) (2021-06-08T08:04:47Z) - Fourier Neural Operator for Parametric Partial Differential Equations [57.90284928158383]
積分カーネルを直接フーリエ空間でパラメータ化することで、新しいニューラル演算子を定式化する。
バーガースの方程式、ダーシー流、ナビエ・ストークス方程式の実験を行う。
従来のPDEソルバに比べて最大3桁高速である。
論文 参考訳(メタデータ) (2020-10-18T00:34:21Z) - Large-scale Neural Solvers for Partial Differential Equations [48.7576911714538]
偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
最近の数値解法では、基礎となる方程式を手動で離散化するだけでなく、分散コンピューティングのための高度で調整されたコードも必要である。
偏微分方程式, 物理インフォームドニューラルネットワーク(PINN)に対する連続メッシュフリーニューラルネットワークの適用性について検討する。
本稿では,解析解に関するGatedPINNの精度と,スペクトル解法などの最先端数値解法について論じる。
論文 参考訳(メタデータ) (2020-09-08T13:26:51Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。