論文の概要: Approximate Bayesian Neural Operators: Uncertainty Quantification for
Parametric PDEs
- arxiv url: http://arxiv.org/abs/2208.01565v1
- Date: Tue, 2 Aug 2022 16:10:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-03 13:52:34.859870
- Title: Approximate Bayesian Neural Operators: Uncertainty Quantification for
Parametric PDEs
- Title(参考訳): 近似ベイズ型ニューラル演算子:パラメトリックPDEの不確かさの定量化
- Authors: Emilia Magnani, Nicholas Kr\"amer, Runa Eschenhagen, Lorenzo Rosasco,
Philipp Hennig
- Abstract要約: ニューラル作用素の'hallow'(線形)バージョンを数学的に詳細に定式化する。
次に、ベイズ深層学習の近似手法を用いて、この解析処理を一般のディープニューラル演算子に拡張する。
その結果, ニューラル演算子の予測に失敗するケースを同定し, 構造的不確実性推定を行うことができた。
- 参考スコア(独自算出の注目度): 34.179984253109346
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural operators are a type of deep architecture that learns to solve (i.e.
learns the nonlinear solution operator of) partial differential equations
(PDEs). The current state of the art for these models does not provide explicit
uncertainty quantification. This is arguably even more of a problem for this
kind of tasks than elsewhere in machine learning, because the dynamical systems
typically described by PDEs often exhibit subtle, multiscale structure that
makes errors hard to spot by humans. In this work, we first provide a
mathematically detailed Bayesian formulation of the ''shallow'' (linear)
version of neural operators in the formalism of Gaussian processes. We then
extend this analytic treatment to general deep neural operators using
approximate methods from Bayesian deep learning. We extend previous results on
neural operators by providing them with uncertainty quantification. As a
result, our approach is able to identify cases, and provide structured
uncertainty estimates, where the neural operator fails to predict well.
- Abstract(参考訳): ニューラル作用素(英: Neural operator)は、偏微分方程式(PDE)の解法(すなわち非線形解演算子)を学習するディープアーキテクチャの一種である。
これらのモデルの現在の技術は明確な不確かさの定量化を提供していない。
というのも、一般的にpdesによって記述される力学系は微妙でマルチスケールな構造を示しており、人間がエラーを見つけるのを難しくしているからです。
本稿では,まず,ガウス過程の形式化におけるニューラル演算子の'シュロー'(線形)バージョンについて,数学的に詳細なベイズ式を提示する。
次に,ベイズ深層学習の近似手法を用いて,この解析的処理を一般深層ニューラルネットワークに拡張する。
ニューラル演算子に関するこれまでの結果を不確実性定量化によって拡張する。
その結果, ニューラル演算子の予測に失敗するケースを同定し, 構造的不確実性推定を行うことができた。
関連論文リスト
- DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [63.5925701087252]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - Linearization Turns Neural Operators into Function-Valued Gaussian Processes [23.85470417458593]
ニューラル作用素におけるベイズの不確かさを近似する新しい枠組みを導入する。
我々の手法は関数型プログラミングからカリー化の概念の確率論的類似体と解釈できる。
我々は、異なるタイプの偏微分方程式への応用を通して、我々のアプローチの有効性を示す。
論文 参考訳(メタデータ) (2024-06-07T16:43:54Z) - Diffusion models as probabilistic neural operators for recovering unobserved states of dynamical systems [49.2319247825857]
拡散に基づく生成モデルは、ニューラル演算子に好適な多くの特性を示す。
本稿では,複数のタスクに適応可能な単一モデルを,トレーニング中のタスク間で交互に学習することを提案する。
論文 参考訳(メタデータ) (2024-05-11T21:23:55Z) - Neural Operator induced Gaussian Process framework for probabilistic solution of parametric partial differential equations [8.528817025440746]
偏微分方程式に対するニューラル演算子誘起ガウス過程(NOGaP)を提案する。
提案手法により予測精度が向上し,不確実性の定量化が可能となった。
その結果,NOGaPの可能性が示唆された。
論文 参考訳(メタデータ) (2024-04-24T03:16:48Z) - Operator Learning: Algorithms and Analysis [8.305111048568737]
オペレータ学習(Operator learning)は、機械学習から、関数のバナッハ空間間の近似演算子へのアイデアの適用を指す。
このレビューは、有限次元ユークリッド空間上で定義される関数の近似におけるディープニューラルネットワークの成功に基づいて構築されたニューラル演算子に焦点を当てる。
論文 参考訳(メタデータ) (2024-02-24T04:40:27Z) - Residual-based error correction for neural operator accelerated
infinite-dimensional Bayesian inverse problems [3.2548794659022393]
関数空間間の非線形写像のニューラルネットワーク表現を用いて無限次元ベイズ逆問題を高速化する。
誤差補正の訓練されたニューラル演算子が近似誤差を2次的に低減できることを示す。
トレーニングされたニューラル演算子を用いて生成された2つのBIPの後方表現は、誤り訂正によって大きく、一貫して拡張されていることを示す。
論文 参考訳(メタデータ) (2022-10-06T15:57:22Z) - Neural Operator: Learning Maps Between Function Spaces [75.93843876663128]
本稿では,無限次元関数空間間を写像する演算子,いわゆるニューラル演算子を学習するためのニューラルネットワークの一般化を提案する。
提案したニューラル作用素に対して普遍近似定理を証明し、任意の非線形連続作用素を近似することができることを示す。
ニューラル作用素に対する重要な応用は、偏微分方程式の解作用素に対する代理写像を学習することである。
論文 参考訳(メタデータ) (2021-08-19T03:56:49Z) - Fourier Neural Operator for Parametric Partial Differential Equations [57.90284928158383]
積分カーネルを直接フーリエ空間でパラメータ化することで、新しいニューラル演算子を定式化する。
バーガースの方程式、ダーシー流、ナビエ・ストークス方程式の実験を行う。
従来のPDEソルバに比べて最大3桁高速である。
論文 参考訳(メタデータ) (2020-10-18T00:34:21Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Bayesian Hidden Physics Models: Uncertainty Quantification for Discovery
of Nonlinear Partial Differential Operators from Data [0.0]
データから微分方程式のような物理法則を発見するために機械学習モデルを使うことへの関心が高まっている。
ニューラルネットワークとして機能データを管理することを学習する「リーフモジュール」からなる新しいモデルを提案する。
提案手法は,演算子に対する後続分布の観点から学習物理の信頼性を定量化し,この不確実性を新しい初期有界値問題インスタンスの解に伝達する。
論文 参考訳(メタデータ) (2020-06-07T18:48:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。