論文の概要: Randomized prior wavelet neural operator for uncertainty quantification
- arxiv url: http://arxiv.org/abs/2302.01051v1
- Date: Thu, 2 Feb 2023 12:28:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-03 14:12:54.215022
- Title: Randomized prior wavelet neural operator for uncertainty quantification
- Title(参考訳): 不確実性定量化のためのランダム化前ウェーブレットニューラル演算子
- Authors: Shailesh Garg and Souvik Chakraborty
- Abstract要約: 我々はtextitRandomized Prior Wavelet Neural Operator (RP-WNO) と呼ばれる新しいデータ駆動型演算子学習フレームワークを提案する。
提案したRP-WNOは、最近提案されたウェーブレットニューラル演算子の拡張であり、優れた一般化能力を有するが、その予測に関する不確実性を推定できない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper, we propose a novel data-driven operator learning framework
referred to as the \textit{Randomized Prior Wavelet Neural Operator} (RP-WNO).
The proposed RP-WNO is an extension of the recently proposed wavelet neural
operator, which boasts excellent generalizing capabilities but cannot estimate
the uncertainty associated with its predictions. RP-WNO, unlike the vanilla
WNO, comes with inherent uncertainty quantification module and hence, is
expected to be extremely useful for scientists and engineers alike. RP-WNO
utilizes randomized prior networks, which can account for prior information and
is easier to implement for large, complex deep-learning architectures than its
Bayesian counterpart. Four examples have been solved to test the proposed
framework, and the results produced advocate favorably for the efficacy of the
proposed framework.
- Abstract(参考訳): 本稿では,新しいデータ駆動型演算子学習フレームワークである「textit{Randomized Prior Wavelet Neural Operator} (RP-WNO)」を提案する。
提案したRP-WNOは、最近提案されたウェーブレットニューラル演算子の拡張であり、優れた一般化能力を有するが、その予測に関する不確実性を推定できない。
rp-wnoはバニラwnoとは異なり、固有の不確実性量子化モジュールを備えており、科学者やエンジニアにも非常に有用であると考えられている。
RP-WNOは、事前情報を考慮し、ベイジアンよりも大規模で複雑なディープラーニングアーキテクチャの実装が容易なランダム化された事前ネットワークを使用している。
提案したフレームワークをテストするための4つの例が解決され,提案フレームワークの有効性を良好に推し進める結果が得られた。
関連論文リスト
- Unrolled denoising networks provably learn optimal Bayesian inference [54.79172096306631]
我々は、近似メッセージパッシング(AMP)のアンロールに基づくニューラルネットワークの最初の厳密な学習保証を証明した。
圧縮センシングでは、製品から引き出されたデータに基づいてトレーニングを行うと、ネットワークの層がベイズAMPで使用されるのと同じデノイザーに収束することを示す。
論文 参考訳(メタデータ) (2024-09-19T17:56:16Z) - Learning Expressive Priors for Generalization and Uncertainty Estimation
in Neural Networks [77.89179552509887]
本稿では,ディープニューラルネットワークにおける一般化と不確実性推定を推し進める新しい事前学習手法を提案する。
キーとなる考え方は、ニューラルネットワークのスケーラブルで構造化された後部を、一般化を保証する情報的事前として活用することである。
本研究では,不確実性推定と一般化における本手法の有効性を徹底的に示す。
論文 参考訳(メタデータ) (2023-07-15T09:24:33Z) - The Cascaded Forward Algorithm for Neural Network Training [61.06444586991505]
本稿では,ニューラルネットワークのための新しい学習フレームワークであるCascaded Forward(CaFo)アルゴリズムを提案する。
FFとは異なり、我々のフレームワークは各カスケードブロックのラベル分布を直接出力する。
我々のフレームワークでは、各ブロックは独立して訓練できるので、並列加速度システムに容易に展開できる。
論文 参考訳(メタデータ) (2023-03-17T02:01:11Z) - Variational Bayes Deep Operator Network: A data-driven Bayesian solver
for parametric differential equations [0.0]
演算子学習のための変分ベイズDeepONet(VB-DeepONet)を提案する。
VB-DeepONetは、高次元後部分布を考慮した変分推論を用いる。
論文 参考訳(メタデータ) (2022-06-12T04:20:11Z) - Non-Clairvoyant Scheduling with Predictions Revisited [77.86290991564829]
非論理的スケジューリングでは、優先度不明な処理条件でジョブをスケジューリングするためのオンライン戦略を見つけることが課題である。
我々はこのよく研究された問題を、アルゴリズム設計に(信頼できない)予測を統合する、最近人気の高い学習強化された設定で再検討する。
これらの予測には所望の特性があり, 高い性能保証を有するアルゴリズムと同様に, 自然な誤差測定が可能であることを示す。
論文 参考訳(メタデータ) (2022-02-21T13:18:11Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Stochastic Neural Radiance Fields:Quantifying Uncertainty in Implicit 3D
Representations [19.6329380710514]
不確かさの定量化は機械学習における長年の問題である。
本稿では,このシーンをモデル化するすべての可能なフィールドの確率分布を学習する標準NeRFの一般化であるNeural Radiance Fields (S-NeRF)を提案する。
S-NeRFは、他の領域における不確実性推定のために提案された一般的なアプローチよりも、より信頼性の高い予測と信頼性値を提供することができる。
論文 参考訳(メタデータ) (2021-09-05T16:56:43Z) - Predicting Deep Neural Network Generalization with Perturbation Response
Curves [58.8755389068888]
トレーニングネットワークの一般化能力を評価するための新しいフレームワークを提案する。
具体的には,一般化ギャップを正確に予測するための2つの新しい尺度を提案する。
PGDL(Predicting Generalization in Deep Learning)のNeurIPS 2020コンペティションにおけるタスクの大部分について、現在の最先端の指標よりも優れた予測スコアを得る。
論文 参考訳(メタデータ) (2021-06-09T01:37:36Z) - Bayesian Perceptron: Towards fully Bayesian Neural Networks [5.5510642465908715]
パーセプトロンのトレーニングと予測は、閉形式のベイズ推論フレームワーク内で実行される。
パーセプトロンの重みと予測はガウス確率変数と見なされる。
このアプローチは計算に高価な勾配計算を必要とせず、さらにシーケンシャルな学習を可能にする。
論文 参考訳(メタデータ) (2020-09-03T15:08:49Z) - Estimation with Uncertainty via Conditional Generative Adversarial
Networks [3.829070379776576]
条件付き生成逆数ネットワーク(cGAN)におけるジェネレータの使い方が異なる予測確率型ニューラルネットワークモデルを提案する。
通常のcGANの入力と出力を反転させることで、モデルを予測モデルとしてうまく利用することができる。
さらに,予測の不確実性を測定するために,回帰問題や分類問題に対するエントロピーと相対エントロピーを導入する。
論文 参考訳(メタデータ) (2020-07-01T08:54:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。