論文の概要: Variationally Mimetic Operator Networks
- arxiv url: http://arxiv.org/abs/2209.12871v3
- Date: Tue, 29 Aug 2023 19:21:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-31 18:13:11.129518
- Title: Variationally Mimetic Operator Networks
- Title(参考訳): 変分模倣演算子ネットワーク
- Authors: Dhruv Patel, Deep Ray, Michael R. A. Abdelmalik, Thomas J. R. Hughes,
Assad A. Oberai
- Abstract要約: 本研究は, 近似変分あるいは弱定式化から得られる数値解の形式を模倣した, 演算子ネットワークのための新しいアーキテクチャについて述べる。
これらのアイデアの汎用楕円型PDEへの応用は、変動緩和作用素ネットワーク(VarMiON)につながる。
VarMiONソリューションにおけるエラーの分析では、トレーニングデータにおけるエラー、トレーニングエラー、入力および出力関数における二次誤差、およびトレーニングデータセットにおけるテスト入力関数と最も近い関数の間の距離を測定する"カバレッジエラー"が含まれていることが明らかになった。
- 参考スコア(独自算出の注目度): 1.7667202894248826
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years operator networks have emerged as promising deep learning
tools for approximating the solution to partial differential equations (PDEs).
These networks map input functions that describe material properties, forcing
functions and boundary data to the solution of a PDE. This work describes a new
architecture for operator networks that mimics the form of the numerical
solution obtained from an approximate variational or weak formulation of the
problem. The application of these ideas to a generic elliptic PDE leads to a
variationally mimetic operator network (VarMiON). Like the conventional Deep
Operator Network (DeepONet) the VarMiON is also composed of a sub-network that
constructs the basis functions for the output and another that constructs the
coefficients for these basis functions. However, in contrast to the DeepONet,
the architecture of these sub-networks in the VarMiON is precisely determined.
An analysis of the error in the VarMiON solution reveals that it contains
contributions from the error in the training data, the training error, the
quadrature error in sampling input and output functions, and a "covering error"
that measures the distance between the test input functions and the nearest
functions in the training dataset. It also depends on the stability constants
for the exact solution operator and its VarMiON approximation. The application
of the VarMiON to a canonical elliptic PDE and a nonlinear PDE reveals that for
approximately the same number of network parameters, on average the VarMiON
incurs smaller errors than a standard DeepONet and a recently proposed
multiple-input operator network (MIONet). Further, its performance is more
robust to variations in input functions, the techniques used to sample the
input and output functions, the techniques used to construct the basis
functions, and the number of input functions.
- Abstract(参考訳): 近年、演算子ネットワークは偏微分方程式(PDE)の解を近似するための有望なディープラーニングツールとして出現している。
これらのネットワークは、材料特性を記述する入力関数をマッピングし、関数と境界データをpdeの解に強制する。
本稿では,問題の近似変分あるいは弱定式化から得られる数値解の形を模倣した,演算子ネットワークのための新しいアーキテクチャについて述べる。
これらのアイデアの汎用楕円型PDEへの応用は、変動緩和作用素ネットワーク(VarMiON)につながる。
従来のDeep Operator Network(DeepONet)と同様に、VarMiONは出力の基底関数を構成するサブネットワークと、これらの基底関数の係数を構成するサブネットワークで構成されている。
しかし、DeepONetとは対照的に、VarMiONにおけるこれらのサブネットワークのアーキテクチャは正確に決定されている。
VarMiONソリューションにおけるエラーの分析では、トレーニングデータにおけるエラー、トレーニングエラー、入力および出力関数における二次誤差、およびトレーニングデータセットにおけるテスト入力関数と最も近い関数の間の距離を測定する"カバレッジエラー"が含まれていることが明らかになった。
また、正確な解作用素とそのVarMiON近似の安定性定数にも依存する。
標準楕円型PDEと非線形PDEへのVarMiONの適用により、ほぼ同じ数のネットワークパラメータに対して、VarMiONは標準のDeepONetや最近提案されたマルチインプット演算子ネットワーク(MIONet)よりも誤差が小さいことが明らかになった。
さらに、その性能は、入力関数のバリエーション、入力関数と出力関数をサンプリングするのに使用される技術、基本関数を構築するのに使用される技術、入力関数の数に対してより堅牢である。
関連論文リスト
- DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [63.5925701087252]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - DeltaPhi: Learning Physical Trajectory Residual for PDE Solving [54.13671100638092]
我々は,物理軌道残差学習(DeltaPhi)を提案し,定式化する。
既存のニューラル演算子ネットワークに基づく残差演算子マッピングのサロゲートモデルについて学習する。
直接学習と比較して,PDEの解法には物理残差学習が望ましいと結論づける。
論文 参考訳(メタデータ) (2024-06-14T07:45:07Z) - Neural Green's Operators for Parametric Partial Differential Equations [0.0]
この研究は、線形偏微分方程式(PDE)のパラメトリック族に対する解演算子を学習する新しいニューラル演算子ネットワークアーキテクチャであるニューラルグリーン演算子(NGO)を導入する。
NGOはディープ・オペレーター・ネットワーク(DeepONets)や可変ミメティック・オペレーター・ネットワーク(VarMiONs)に類似している。
論文 参考訳(メタデータ) (2024-06-04T00:02:52Z) - D2NO: Efficient Handling of Heterogeneous Input Function Spaces with
Distributed Deep Neural Operators [7.119066725173193]
異種性を示す入力関数を扱うための新しい分散手法を提案する。
中央ニューラルネットワークは、すべての出力関数間で共有情報を処理するために使用される。
ニューラルネットワークが連続非線形作用素の普遍近似であることを示す。
論文 参考訳(メタデータ) (2023-10-29T03:29:59Z) - Energy-Dissipative Evolutionary Deep Operator Neural Networks [12.764072441220172]
エネルギー分散進化的深層演算子ニューラルネットワーク(Energy-Dissipative Evolutionary Deep Operator Neural Network)は、ニューラルネットワークを学習するオペレータである。
偏微分方程式のクラスに対する数値解をシードするように設計されている。
論文 参考訳(メタデータ) (2023-06-09T22:11:16Z) - Score-based Diffusion Models in Function Space [140.792362459734]
拡散モデルは、最近、生成モデリングの強力なフレームワークとして登場した。
本稿では,関数空間における拡散モデルをトレーニングするためのDDO(Denoising Diffusion Operators)という,数学的に厳密なフレームワークを提案する。
データ解像度に依存しない固定コストで、対応する離散化アルゴリズムが正確なサンプルを生成することを示す。
論文 参考訳(メタデータ) (2023-02-14T23:50:53Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Physics-Informed Neural Operator for Learning Partial Differential
Equations [55.406540167010014]
PINOは、演算子を学ぶために異なる解像度でデータとPDE制約を組み込んだ最初のハイブリッドアプローチである。
結果の PINO モデルは、多くの人気のある PDE ファミリの基底構造解演算子を正確に近似することができる。
論文 参考訳(メタデータ) (2021-11-06T03:41:34Z) - The Random Feature Model for Input-Output Maps between Banach Spaces [6.282068591820945]
ランダム特徴モデルは、カーネルまたは回帰法に対するパラメトリック近似である。
本稿では、入力バナッハ空間を出力バナッハ空間にマッピングする演算子のためのデータ駆動サロゲートとしてランダム特徴モデルを使用する手法を提案する。
論文 参考訳(メタデータ) (2020-05-20T17:41:40Z) - Solving inverse-PDE problems with physics-aware neural networks [0.0]
偏微分方程式の逆問題における未知の場を見つけるための新しい枠組みを提案する。
我々は,ディープニューラルネットワークの高表現性を,既存の数値アルゴリズムの精度と信頼性とを融合した普遍関数推定器とする。
論文 参考訳(メタデータ) (2020-01-10T18:46:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。