論文の概要: Variationally Mimetic Operator Networks
- arxiv url: http://arxiv.org/abs/2209.12871v1
- Date: Mon, 26 Sep 2022 17:39:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 18:38:11.931556
- Title: Variationally Mimetic Operator Networks
- Title(参考訳): 変分模倣演算子ネットワーク
- Authors: Dhruv Patel, Deep Ray, Michael R. A. Abdelmalik, Thomas J. R. Hughes,
Assad A. Oberai
- Abstract要約: 本研究は,問題の変動あるいは弱い定式化の近似から得られる数値解の形式を模倣した,演算子ネットワークのための新しいアーキテクチャを記述する。
これらのアイデアの汎用楕円型PDEへの応用は、変動緩和作用素ネットワーク(VarMiON)につながる。
- 参考スコア(独自算出の注目度): 0.41998444721319217
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Operator networks have emerged as promising deep learning tools for
approximating the solution to partial differential equations (PDEs). These
networks map input functions that describe material properties, forcing
functions and boundary data to the solution of a PDE. This work describes a new
architecture for operator networks that mimics the form of the numerical
solution obtained from an approximation of the variational or weak formulation
of the problem. The application of these ideas to a generic elliptic PDE leads
to a variationally mimetic operator network (VarMiON). Like the conventional
Deep Operator Network (DeepONet) the VarMiON is also composed of a sub-network
that constructs the basis functions for the output and another that constructs
the coefficients for these basis functions. However, in contrast to the
DeepONet, in the VarMiON the architecture of these networks is precisely
determined. An analysis of the error in the VarMiON solution reveals that it
contains contributions from the error in the training data, the training error,
quadrature error in sampling input and output functions, and a "covering error"
that measures the distance between the test input functions and the nearest
functions in the training dataset. It also depends on the stability constants
for the exact network and its VarMiON approximation. The application of the
VarMiON to a canonical elliptic PDE reveals that for approximately the same
number of network parameters, on average the VarMiON incurs smaller errors than
a standard DeepONet. Further, its performance is more robust to variations in
input functions, the techniques used to sample the input and output functions,
the techniques used to construct the basis functions, and the number of input
functions.
- Abstract(参考訳): 演算子ネットワークは偏微分方程式(PDE)の解を近似するための有望なディープラーニングツールとして登場した。
これらのネットワークは、材料特性を記述する入力関数をマッピングし、関数と境界データをpdeの解に強制する。
本研究は,問題の変動あるいは弱い定式化の近似から得られる数値解の形式を模倣した,演算子ネットワークのための新しいアーキテクチャを記述する。
これらのアイデアの汎用楕円型PDEへの応用は、変動緩和作用素ネットワーク(VarMiON)につながる。
従来のDeep Operator Network(DeepONet)と同様に、VarMiONは出力の基底関数を構成するサブネットワークと、これらの基底関数の係数を構成するサブネットワークで構成されている。
しかし、DeepONetとは対照的に、VarMiONではこれらのネットワークのアーキテクチャが正確に決定されている。
VarMiONソリューションにおけるエラーの分析では、トレーニングデータにおけるエラー、トレーニングエラー、サンプリング入力および出力関数における二次誤差、およびトレーニングデータセットにおけるテスト入力関数と最も近い関数の間の距離を測定する"カバレッジエラー"が含まれていることが明らかになった。
また、厳密なネットワークの安定性定数と、その変量近似にも依存する。
標準楕円型PDEへのVarMiONの適用により、およそ同じ数のネットワークパラメータに対して、VarMiONは標準のDeepONetよりも小さなエラーを発生させることが明らかになった。
さらに、その性能は、入力関数のバリエーション、入力関数と出力関数をサンプリングするのに使用される技術、基本関数を構築するのに使用される技術、入力関数の数に対してより堅牢である。
関連論文リスト
- GIT-Net: Generalized Integral Transform for Operator Learning [58.13313857603536]
本稿では、部分微分方程式(PDE)演算子を近似するディープニューラルネットワークアーキテクチャであるGIT-Netを紹介する。
GIT-Netは、PDEを定義するためによく使われる微分作用素が、特殊機能基底で表現されるときに、しばしば同義的に表現されるという事実を利用する。
数値実験により、GIT-Netは競争力のあるニューラルネットワーク演算子であり、様々なPDE問題に対して小さなテストエラーと低い評価を示すことが示された。
論文 参考訳(メタデータ) (2023-12-05T03:03:54Z) - D2NO: Efficient Handling of Heterogeneous Input Function Spaces with
Distributed Deep Neural Operators [7.119066725173193]
異種性を示す入力関数を扱うための新しい分散手法を提案する。
中央ニューラルネットワークは、すべての出力関数間で共有情報を処理するために使用される。
ニューラルネットワークが連続非線形作用素の普遍近似であることを示す。
論文 参考訳(メタデータ) (2023-10-29T03:29:59Z) - Energy-Dissipative Evolutionary Deep Operator Neural Networks [12.764072441220172]
エネルギー分散進化的深層演算子ニューラルネットワーク(Energy-Dissipative Evolutionary Deep Operator Neural Network)は、ニューラルネットワークを学習するオペレータである。
偏微分方程式のクラスに対する数値解をシードするように設計されている。
論文 参考訳(メタデータ) (2023-06-09T22:11:16Z) - Score-based Diffusion Models in Function Space [140.792362459734]
拡散モデルは、最近、生成モデリングの強力なフレームワークとして登場した。
本稿では,関数空間における拡散モデルをトレーニングするためのDDO(Denoising Diffusion Operators)という,数学的に厳密なフレームワークを提案する。
データ解像度に依存しない固定コストで、対応する離散化アルゴリズムが正確なサンプルを生成することを示す。
論文 参考訳(メタデータ) (2023-02-14T23:50:53Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Physics-Informed Neural Operator for Learning Partial Differential
Equations [55.406540167010014]
PINOは、演算子を学ぶために異なる解像度でデータとPDE制約を組み込んだ最初のハイブリッドアプローチである。
結果の PINO モデルは、多くの人気のある PDE ファミリの基底構造解演算子を正確に近似することができる。
論文 参考訳(メタデータ) (2021-11-06T03:41:34Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - The Random Feature Model for Input-Output Maps between Banach Spaces [6.282068591820945]
ランダム特徴モデルは、カーネルまたは回帰法に対するパラメトリック近似である。
本稿では、入力バナッハ空間を出力バナッハ空間にマッピングする演算子のためのデータ駆動サロゲートとしてランダム特徴モデルを使用する手法を提案する。
論文 参考訳(メタデータ) (2020-05-20T17:41:40Z) - Solving inverse-PDE problems with physics-aware neural networks [0.0]
偏微分方程式の逆問題における未知の場を見つけるための新しい枠組みを提案する。
我々は,ディープニューラルネットワークの高表現性を,既存の数値アルゴリズムの精度と信頼性とを融合した普遍関数推定器とする。
論文 参考訳(メタデータ) (2020-01-10T18:46:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。