論文の概要: Neural Operators Meet Energy-based Theory: Operator Learning for
Hamiltonian and Dissipative PDEs
- arxiv url: http://arxiv.org/abs/2402.09018v1
- Date: Wed, 14 Feb 2024 08:50:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-15 16:18:17.823855
- Title: Neural Operators Meet Energy-based Theory: Operator Learning for
Hamiltonian and Dissipative PDEs
- Title(参考訳): ニューラル演算子とエネルギー理論:ハミルトンおよび散逸PDEのための演算子学習
- Authors: Yusuke Tanaka, Takaharu Yaguchi, Tomoharu Iwata, Naonori Ueda
- Abstract要約: 本稿では、偏微分方程式の解演算子を学習するためのエネルギー一貫性ニューラル演算子(ENO)を提案する。
ENOは、観測された溶液軌道からのエネルギー保存または散逸法に従う。
そこで我々は,エネルギー関数を他のDNNによってモデル化した,エネルギーに基づく物理理論に触発された新しいペナルティ関数を導入する。
- 参考スコア(独自算出の注目度): 35.70739067374375
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The operator learning has received significant attention in recent years,
with the aim of learning a mapping between function spaces. Prior works have
proposed deep neural networks (DNNs) for learning such a mapping, enabling the
learning of solution operators of partial differential equations (PDEs).
However, these works still struggle to learn dynamics that obeys the laws of
physics. This paper proposes Energy-consistent Neural Operators (ENOs), a
general framework for learning solution operators of PDEs that follows the
energy conservation or dissipation law from observed solution trajectories. We
introduce a novel penalty function inspired by the energy-based theory of
physics for training, in which the energy functional is modeled by another DNN,
allowing one to bias the outputs of the DNN-based solution operators to ensure
energetic consistency without explicit PDEs. Experiments on multiple physical
systems show that ENO outperforms existing DNN models in predicting solutions
from data, especially in super-resolution settings.
- Abstract(参考訳): 近年,関数空間間の写像の学習を目的として,演算子学習が注目されている。
従来の研究では、そのようなマッピングを学習するためのディープニューラルネットワーク(DNN)を提案しており、偏微分方程式(PDE)の解演算子を学習することができる。
しかし、これらの作品はまだ物理学の法則に従う力学を学ぶのに苦労している。
本稿では,PDEの解演算子を学習するための一般フレームワークであるEno(Energy-Consistent Neural Operators)を提案する。
本稿では,エネルギー関数が他のdnnによってモデル化され,dnnベースの解演算子の出力を偏らせ,明示的なpdesを使わずにエネルギー的一貫性を確保できる,エネルギーに基づく物理理論に着想を得た新しいペナルティ関数を提案する。
複数の物理システムの実験により、ENOは既存のDNNモデルよりも優れており、特に超解像度設定において、データからソリューションを予測する。
関連論文リスト
- Physics informed WNO [0.0]
パラメトリック偏微分方程式(PDE)系の解演算子をラベル付きトレーニングデータなしで学習するための物理インフォームドウェーブレット演算子(WNO)を提案する。
このフレームワークの有効性は、工学と科学の様々な分野に関連する4つの非線形ニューラルネットワークで検証され、実証されている。
論文 参考訳(メタデータ) (2023-02-12T14:31:50Z) - Koopman neural operator as a mesh-free solver of non-linear partial
differential equations [7.815723299913228]
機械学習において、ニューラル演算子は方程式解の異なるパラメータ化空間の間をマッピングする。
これらの課題を克服するために、新しいニューラル演算子であるクープマンニューラル演算子(KNO)を提案する。
KNOは精度と効率のトレードオフを破る際、顕著な利点を示す。
論文 参考訳(メタデータ) (2023-01-24T14:10:15Z) - An unsupervised latent/output physics-informed convolutional-LSTM
network for solving partial differential equations using peridynamic
differential operator [0.0]
部分微分方程式(PDE)を解く非局所相互作用をもつ非教師付き畳み込みニューラルネットワーク(NN)アーキテクチャ
PDDOは、フィールド変数の微分を評価するための畳み込みフィルタとして使用される。
NNは、エンコーダ・デコーダ層とConvLSTM(Convolutional Long-Short Term Memory)層によって、より小さな潜在空間の時間力学をキャプチャする。
論文 参考訳(メタデータ) (2022-10-21T18:09:23Z) - Generic bounds on the approximation error for physics-informed (and)
operator learning [7.6146285961466]
本稿では,物理インフォームドニューラルネットワーク(PINN)とDeepONetsやFNOといった演算子学習アーキテクチャの近似誤差の厳密な境界を導出するフレームワークを提案する。
これらの境界は、PINNと(物理インフォームド)ディープノネットやFNOが、一般偏微分方程式(PDE)の根底にある解や解作用素を効率的に近似することを保証している。
論文 参考訳(メタデータ) (2022-05-23T15:40:33Z) - Neural Operator with Regularity Structure for Modeling Dynamics Driven
by SPDEs [70.51212431290611]
偏微分方程式 (SPDE) は、大気科学や物理学を含む多くの分野において、力学をモデル化するための重要なツールである。
本研究では,SPDEによって駆動されるダイナミクスをモデル化するための特徴ベクトルを組み込んだニューラル演算子(NORS)を提案する。
動的Phi41モデルと2d Navier-Stokes方程式を含む様々なSPDE実験を行った。
論文 参考訳(メタデータ) (2022-04-13T08:53:41Z) - Physics-Informed Neural Operator for Learning Partial Differential
Equations [55.406540167010014]
PINOは、演算子を学ぶために異なる解像度でデータとPDE制約を組み込んだ最初のハイブリッドアプローチである。
結果の PINO モデルは、多くの人気のある PDE ファミリの基底構造解演算子を正確に近似することができる。
論文 参考訳(メタデータ) (2021-11-06T03:41:34Z) - Neural Operator: Learning Maps Between Function Spaces [57.90284928158383]
本稿では,無限次元関数空間間を写像する演算子,いわゆるニューラル演算子を学習するためのニューラルネットワークの一般化を提案する。
提案したニューラル作用素に対して普遍近似定理を証明し、任意の非線形連続作用素を近似することができることを示す。
ニューラル作用素に対する重要な応用は、偏微分方程式の解作用素に対する代理写像を学習することである。
論文 参考訳(メタデータ) (2021-08-19T03:56:49Z) - Incorporating NODE with Pre-trained Neural Differential Operator for
Learning Dynamics [73.77459272878025]
ニューラル微分演算子(NDO)の事前学習による動的学習における教師付き信号の強化を提案する。
NDOは記号関数のクラスで事前訓練され、これらの関数の軌跡サンプルとそれらの導関数とのマッピングを学習する。
我々は,NDOの出力が,ライブラリの複雑さを適切に調整することで,基礎となる真理微分を適切に近似できることを理論的に保証する。
論文 参考訳(メタデータ) (2021-06-08T08:04:47Z) - dNNsolve: an efficient NN-based PDE solver [62.997667081978825]
ODE/PDEを解決するためにデュアルニューラルネットワークを利用するdNNsolveを紹介します。
我々は,dNNsolveが1,2,3次元の幅広いODE/PDEを解くことができることを示す。
論文 参考訳(メタデータ) (2021-03-15T19:14:41Z) - Benchmarking Energy-Conserving Neural Networks for Learning Dynamics
from Data [9.811643357656196]
HNN, LNN, DeLaN, SymODEN, CHNN, CLNNなど,最近提案した10種類のエネルギー保存型ニューラルネットワークモデルを調査した。
我々は、これらのエネルギー保存モデルのいくつかをエネルギーベースコントローラの設計に活用する可能性について指摘している。
論文 参考訳(メタデータ) (2020-12-03T23:53:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。