論文の概要: Approximate Bayesian Neural Operators: Uncertainty Quantification for
Parametric PDEs
- arxiv url: http://arxiv.org/abs/2208.01565v1
- Date: Tue, 2 Aug 2022 16:10:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-03 13:52:34.859870
- Title: Approximate Bayesian Neural Operators: Uncertainty Quantification for
Parametric PDEs
- Title(参考訳): 近似ベイズ型ニューラル演算子:パラメトリックPDEの不確かさの定量化
- Authors: Emilia Magnani, Nicholas Kr\"amer, Runa Eschenhagen, Lorenzo Rosasco,
Philipp Hennig
- Abstract要約: ニューラル作用素の'hallow'(線形)バージョンを数学的に詳細に定式化する。
次に、ベイズ深層学習の近似手法を用いて、この解析処理を一般のディープニューラル演算子に拡張する。
その結果, ニューラル演算子の予測に失敗するケースを同定し, 構造的不確実性推定を行うことができた。
- 参考スコア(独自算出の注目度): 34.179984253109346
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural operators are a type of deep architecture that learns to solve (i.e.
learns the nonlinear solution operator of) partial differential equations
(PDEs). The current state of the art for these models does not provide explicit
uncertainty quantification. This is arguably even more of a problem for this
kind of tasks than elsewhere in machine learning, because the dynamical systems
typically described by PDEs often exhibit subtle, multiscale structure that
makes errors hard to spot by humans. In this work, we first provide a
mathematically detailed Bayesian formulation of the ''shallow'' (linear)
version of neural operators in the formalism of Gaussian processes. We then
extend this analytic treatment to general deep neural operators using
approximate methods from Bayesian deep learning. We extend previous results on
neural operators by providing them with uncertainty quantification. As a
result, our approach is able to identify cases, and provide structured
uncertainty estimates, where the neural operator fails to predict well.
- Abstract(参考訳): ニューラル作用素(英: Neural operator)は、偏微分方程式(PDE)の解法(すなわち非線形解演算子)を学習するディープアーキテクチャの一種である。
これらのモデルの現在の技術は明確な不確かさの定量化を提供していない。
というのも、一般的にpdesによって記述される力学系は微妙でマルチスケールな構造を示しており、人間がエラーを見つけるのを難しくしているからです。
本稿では,まず,ガウス過程の形式化におけるニューラル演算子の'シュロー'(線形)バージョンについて,数学的に詳細なベイズ式を提示する。
次に,ベイズ深層学習の近似手法を用いて,この解析的処理を一般深層ニューラルネットワークに拡張する。
ニューラル演算子に関するこれまでの結果を不確実性定量化によって拡張する。
その結果, ニューラル演算子の予測に失敗するケースを同定し, 構造的不確実性推定を行うことができた。
関連論文リスト
- Operator Learning: Algorithms and Analysis [8.305111048568737]
オペレータ学習(Operator learning)は、機械学習から、関数のバナッハ空間間の近似演算子へのアイデアの適用を指す。
このレビューは、有限次元ユークリッド空間上で定義される関数の近似におけるディープニューラルネットワークの成功に基づいて構築されたニューラル演算子に焦点を当てる。
論文 参考訳(メタデータ) (2024-02-24T04:40:27Z) - Koopman neural operator as a mesh-free solver of non-linear partial
differential equations [7.815723299913228]
機械学習において、ニューラル演算子は方程式解の異なるパラメータ化空間の間をマッピングする。
これらの課題を克服するために、新しいニューラル演算子であるクープマンニューラル演算子(KNO)を提案する。
KNOは精度と効率のトレードオフを破る際、顕著な利点を示す。
論文 参考訳(メタデータ) (2023-01-24T14:10:15Z) - Reliable extrapolation of deep neural operators informed by physics or
sparse observations [2.887258133992338]
ディープニューラルネットワークは、ディープニューラルネットワークを介して無限次元関数空間間の非線形マッピングを学習することができる。
DeepONetsは科学と工学の新しいシミュレーションパラダイムを提供する。
本稿では,外挿下での安全な予測を保証する5つの信頼性学習手法を提案する。
論文 参考訳(メタデータ) (2022-12-13T03:02:46Z) - Residual-based error correction for neural operator accelerated
infinite-dimensional Bayesian inverse problems [3.2548794659022393]
関数空間間の非線形写像のニューラルネットワーク表現を用いて無限次元ベイズ逆問題を高速化する。
誤差補正の訓練されたニューラル演算子が近似誤差を2次的に低減できることを示す。
トレーニングされたニューラル演算子を用いて生成された2つのBIPの後方表現は、誤り訂正によって大きく、一貫して拡張されていることを示す。
論文 参考訳(メタデータ) (2022-10-06T15:57:22Z) - Generalization of Neural Combinatorial Solvers Through the Lens of
Adversarial Robustness [68.97830259849086]
ほとんどのデータセットは単純なサブプロブレムのみをキャプチャし、おそらくは突発的な特徴に悩まされる。
本研究では, 局所的な一般化特性である対向ロバスト性について検討し, 厳密でモデル固有な例と突発的な特徴を明らかにする。
他のアプリケーションとは異なり、摂動モデルは知覚できないという主観的な概念に基づいて設計されているため、摂動モデルは効率的かつ健全である。
驚くべきことに、そのような摂動によって、十分に表現力のあるニューラルソルバは、教師あり学習で共通する正確さと悪質さのトレードオフの限界に悩まされない。
論文 参考訳(メタデータ) (2021-10-21T07:28:11Z) - Neural Operator: Learning Maps Between Function Spaces [57.90284928158383]
本稿では,無限次元関数空間間を写像する演算子,いわゆるニューラル演算子を学習するためのニューラルネットワークの一般化を提案する。
提案したニューラル作用素に対して普遍近似定理を証明し、任意の非線形連続作用素を近似することができることを示す。
ニューラル作用素に対する重要な応用は、偏微分方程式の解作用素に対する代理写像を学習することである。
論文 参考訳(メタデータ) (2021-08-19T03:56:49Z) - Fractal Structure and Generalization Properties of Stochastic
Optimization Algorithms [71.62575565990502]
最適化アルゴリズムの一般化誤差は、その一般化尺度の根底にあるフラクタル構造の複雑性'にバウンドできることを示す。
さらに、特定の問題(リニア/ロジスティックレグレッション、隠れ/層ニューラルネットワークなど)とアルゴリズムに対して、結果をさらに専門化します。
論文 参考訳(メタデータ) (2021-06-09T08:05:36Z) - Fourier Neural Operator for Parametric Partial Differential Equations [57.90284928158383]
積分カーネルを直接フーリエ空間でパラメータ化することで、新しいニューラル演算子を定式化する。
バーガースの方程式、ダーシー流、ナビエ・ストークス方程式の実験を行う。
従来のPDEソルバに比べて最大3桁高速である。
論文 参考訳(メタデータ) (2020-10-18T00:34:21Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Bayesian Hidden Physics Models: Uncertainty Quantification for Discovery
of Nonlinear Partial Differential Operators from Data [0.0]
データから微分方程式のような物理法則を発見するために機械学習モデルを使うことへの関心が高まっている。
ニューラルネットワークとして機能データを管理することを学習する「リーフモジュール」からなる新しいモデルを提案する。
提案手法は,演算子に対する後続分布の観点から学習物理の信頼性を定量化し,この不確実性を新しい初期有界値問題インスタンスの解に伝達する。
論文 参考訳(メタデータ) (2020-06-07T18:48:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。