論文の概要: Variationally Mimetic Operator Networks
- arxiv url: http://arxiv.org/abs/2209.12871v1
- Date: Mon, 26 Sep 2022 17:39:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 18:38:11.931556
- Title: Variationally Mimetic Operator Networks
- Title(参考訳): 変分模倣演算子ネットワーク
- Authors: Dhruv Patel, Deep Ray, Michael R. A. Abdelmalik, Thomas J. R. Hughes,
Assad A. Oberai
- Abstract要約: 本研究は,問題の変動あるいは弱い定式化の近似から得られる数値解の形式を模倣した,演算子ネットワークのための新しいアーキテクチャを記述する。
これらのアイデアの汎用楕円型PDEへの応用は、変動緩和作用素ネットワーク(VarMiON)につながる。
- 参考スコア(独自算出の注目度): 0.41998444721319217
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Operator networks have emerged as promising deep learning tools for
approximating the solution to partial differential equations (PDEs). These
networks map input functions that describe material properties, forcing
functions and boundary data to the solution of a PDE. This work describes a new
architecture for operator networks that mimics the form of the numerical
solution obtained from an approximation of the variational or weak formulation
of the problem. The application of these ideas to a generic elliptic PDE leads
to a variationally mimetic operator network (VarMiON). Like the conventional
Deep Operator Network (DeepONet) the VarMiON is also composed of a sub-network
that constructs the basis functions for the output and another that constructs
the coefficients for these basis functions. However, in contrast to the
DeepONet, in the VarMiON the architecture of these networks is precisely
determined. An analysis of the error in the VarMiON solution reveals that it
contains contributions from the error in the training data, the training error,
quadrature error in sampling input and output functions, and a "covering error"
that measures the distance between the test input functions and the nearest
functions in the training dataset. It also depends on the stability constants
for the exact network and its VarMiON approximation. The application of the
VarMiON to a canonical elliptic PDE reveals that for approximately the same
number of network parameters, on average the VarMiON incurs smaller errors than
a standard DeepONet. Further, its performance is more robust to variations in
input functions, the techniques used to sample the input and output functions,
the techniques used to construct the basis functions, and the number of input
functions.
- Abstract(参考訳): 演算子ネットワークは偏微分方程式(PDE)の解を近似するための有望なディープラーニングツールとして登場した。
これらのネットワークは、材料特性を記述する入力関数をマッピングし、関数と境界データをpdeの解に強制する。
本研究は,問題の変動あるいは弱い定式化の近似から得られる数値解の形式を模倣した,演算子ネットワークのための新しいアーキテクチャを記述する。
これらのアイデアの汎用楕円型PDEへの応用は、変動緩和作用素ネットワーク(VarMiON)につながる。
従来のDeep Operator Network(DeepONet)と同様に、VarMiONは出力の基底関数を構成するサブネットワークと、これらの基底関数の係数を構成するサブネットワークで構成されている。
しかし、DeepONetとは対照的に、VarMiONではこれらのネットワークのアーキテクチャが正確に決定されている。
VarMiONソリューションにおけるエラーの分析では、トレーニングデータにおけるエラー、トレーニングエラー、サンプリング入力および出力関数における二次誤差、およびトレーニングデータセットにおけるテスト入力関数と最も近い関数の間の距離を測定する"カバレッジエラー"が含まれていることが明らかになった。
また、厳密なネットワークの安定性定数と、その変量近似にも依存する。
標準楕円型PDEへのVarMiONの適用により、およそ同じ数のネットワークパラメータに対して、VarMiONは標準のDeepONetよりも小さなエラーを発生させることが明らかになった。
さらに、その性能は、入力関数のバリエーション、入力関数と出力関数をサンプリングするのに使用される技術、基本関数を構築するのに使用される技術、入力関数の数に対してより堅牢である。
関連論文リスト
- DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [63.5925701087252]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - DeltaPhi: Learning Physical Trajectory Residual for PDE Solving [54.13671100638092]
我々は,物理軌道残差学習(DeltaPhi)を提案し,定式化する。
既存のニューラル演算子ネットワークに基づく残差演算子マッピングのサロゲートモデルについて学習する。
直接学習と比較して,PDEの解法には物理残差学習が望ましいと結論づける。
論文 参考訳(メタデータ) (2024-06-14T07:45:07Z) - Neural Green's Operators for Parametric Partial Differential Equations [0.0]
この研究は、線形偏微分方程式(PDE)のパラメトリック族に対する解演算子を学習する新しいニューラル演算子ネットワークアーキテクチャであるニューラルグリーン演算子(NGO)を導入する。
NGOはディープ・オペレーター・ネットワーク(DeepONets)や可変ミメティック・オペレーター・ネットワーク(VarMiONs)に類似している。
論文 参考訳(メタデータ) (2024-06-04T00:02:52Z) - D2NO: Efficient Handling of Heterogeneous Input Function Spaces with
Distributed Deep Neural Operators [7.119066725173193]
異種性を示す入力関数を扱うための新しい分散手法を提案する。
中央ニューラルネットワークは、すべての出力関数間で共有情報を処理するために使用される。
ニューラルネットワークが連続非線形作用素の普遍近似であることを示す。
論文 参考訳(メタデータ) (2023-10-29T03:29:59Z) - Energy-Dissipative Evolutionary Deep Operator Neural Networks [12.764072441220172]
エネルギー分散進化的深層演算子ニューラルネットワーク(Energy-Dissipative Evolutionary Deep Operator Neural Network)は、ニューラルネットワークを学習するオペレータである。
偏微分方程式のクラスに対する数値解をシードするように設計されている。
論文 参考訳(メタデータ) (2023-06-09T22:11:16Z) - Score-based Diffusion Models in Function Space [140.792362459734]
拡散モデルは、最近、生成モデリングの強力なフレームワークとして登場した。
本稿では,関数空間における拡散モデルをトレーニングするためのDDO(Denoising Diffusion Operators)という,数学的に厳密なフレームワークを提案する。
データ解像度に依存しない固定コストで、対応する離散化アルゴリズムが正確なサンプルを生成することを示す。
論文 参考訳(メタデータ) (2023-02-14T23:50:53Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Physics-Informed Neural Operator for Learning Partial Differential
Equations [55.406540167010014]
PINOは、演算子を学ぶために異なる解像度でデータとPDE制約を組み込んだ最初のハイブリッドアプローチである。
結果の PINO モデルは、多くの人気のある PDE ファミリの基底構造解演算子を正確に近似することができる。
論文 参考訳(メタデータ) (2021-11-06T03:41:34Z) - The Random Feature Model for Input-Output Maps between Banach Spaces [6.282068591820945]
ランダム特徴モデルは、カーネルまたは回帰法に対するパラメトリック近似である。
本稿では、入力バナッハ空間を出力バナッハ空間にマッピングする演算子のためのデータ駆動サロゲートとしてランダム特徴モデルを使用する手法を提案する。
論文 参考訳(メタデータ) (2020-05-20T17:41:40Z) - Solving inverse-PDE problems with physics-aware neural networks [0.0]
偏微分方程式の逆問題における未知の場を見つけるための新しい枠組みを提案する。
我々は,ディープニューラルネットワークの高表現性を,既存の数値アルゴリズムの精度と信頼性とを融合した普遍関数推定器とする。
論文 参考訳(メタデータ) (2020-01-10T18:46:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。