論文の概要: Discretization-Induced Dirichlet Posterior for Robust Uncertainty
Quantification on Regression
- arxiv url: http://arxiv.org/abs/2308.09065v2
- Date: Wed, 13 Dec 2023 18:01:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-14 20:42:27.865677
- Title: Discretization-Induced Dirichlet Posterior for Robust Uncertainty
Quantification on Regression
- Title(参考訳): レグレッションのロバスト不確かさ定量化のための離散化誘起ディリクレ後部
- Authors: Xuanlong Yu, Gianni Franchi, Jindong Gu, Emanuel Aldea
- Abstract要約: 不確実性定量化は、現実世界のアプリケーションにディープニューラルネットワーク(DNN)をデプロイするために重要である。
視覚回帰タスクでは、現在のAuxUE設計は、主にアレタリック不確実性推定に採用されている。
回帰タスクにおけるより堅牢な不確実性定量化のための一般化されたAuxUEスキームを提案する。
- 参考スコア(独自算出の注目度): 17.49026509916207
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Uncertainty quantification is critical for deploying deep neural networks
(DNNs) in real-world applications. An Auxiliary Uncertainty Estimator (AuxUE)
is one of the most effective means to estimate the uncertainty of the main task
prediction without modifying the main task model. To be considered robust, an
AuxUE must be capable of maintaining its performance and triggering higher
uncertainties while encountering Out-of-Distribution (OOD) inputs, i.e., to
provide robust aleatoric and epistemic uncertainty. However, for vision
regression tasks, current AuxUE designs are mainly adopted for aleatoric
uncertainty estimates, and AuxUE robustness has not been explored. In this
work, we propose a generalized AuxUE scheme for more robust uncertainty
quantification on regression tasks. Concretely, to achieve a more robust
aleatoric uncertainty estimation, different distribution assumptions are
considered for heteroscedastic noise, and Laplace distribution is finally
chosen to approximate the prediction error. For epistemic uncertainty, we
propose a novel solution named Discretization-Induced Dirichlet pOsterior
(DIDO), which models the Dirichlet posterior on the discretized prediction
error. Extensive experiments on age estimation, monocular depth estimation, and
super-resolution tasks show that our proposed method can provide robust
uncertainty estimates in the face of noisy inputs and that it can be scalable
to both image-level and pixel-wise tasks. Code is available at
https://github.com/ENSTA-U2IS/DIDO .
- Abstract(参考訳): 不確実性定量化は、現実世界のアプリケーションにディープニューラルネットワーク(DNN)をデプロイするために重要である。
AuxUE(Auxiliary Uncertainity Estimator)は、メインタスクモデルを変更することなく、メインタスク予測の不確かさを推定する最も効果的な方法の1つである。
強固であると考えられるためには、auxueはその性能を維持し、分散(ood)入力、すなわち強固なアレーテータと認識的不確実性をもたらすために、より高い不確実性を引き起こすことができる必要がある。
しかし、視覚回帰タスクでは、現在の auxue の設計は、主に aleatoric uncertainty estimation に採用されており、auxue robustness は検討されていない。
本研究では,回帰タスクに対するより堅牢な不確実性定量化のための一般化されたAuxUEスキームを提案する。
具体的には,よりロバストなアレエータ的不確実性推定を実現するために,ヘテロシドスティックノイズに対して異なる分布仮定を考慮し,ラプラス分布を選択して予測誤差を近似する。
認識的不確実性については,離散化誘導ディリクレ後方(dido)という新しい解を提案し,離散化予測誤差に基づいてディリクレ後方をモデル化する。
年齢推定,単眼深度推定,超解像タスクに関する広範な実験により,提案手法はノイズ入力に対して頑健な不確実性推定が可能であり,画像レベルと画素単位の両方のタスクにスケーラブルであることを示す。
コードはhttps://github.com/ENSTA-U2IS/DIDOで入手できる。
関連論文リスト
- Adaptive Uncertainty Estimation via High-Dimensional Testing on Latent
Representations [28.875819909902244]
不確実性推定は、訓練されたディープニューラルネットワークの信頼性を評価することを目的としている。
既存の不確実性推定アプローチは、低次元分布仮定に依存している。
本研究では,不確実性推定のためのデータ適応型高次元仮説テストを用いた新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-25T12:22:18Z) - Density Uncertainty Layers for Reliable Uncertainty Estimation [20.867449366086237]
ディープニューラルネットワークの予測不確実性を評価することは、ディープラーニングの安全性関連の応用に不可欠である。
本稿では,モデルが入力の経験的密度に基づいて予測分散を行う必要があるという,信頼性のある予測不確実性のための新しい基準を提案する。
既存の手法と比較すると、密度不確実性層はより信頼性の高い不確実性推定とロバストなアウト・オブ・ディストリビューション検出性能を提供する。
論文 参考訳(メタデータ) (2023-06-21T18:12:58Z) - Integrating Uncertainty into Neural Network-based Speech Enhancement [27.868722093985006]
時間周波数領域における監視されたマスキングアプローチは、ディープニューラルネットワークを使用して乗法マスクを推定し、クリーンな音声を抽出することを目的としている。
これにより、信頼性の保証や尺度を使わずに、各入力に対する単一の見積もりが導かれる。
クリーン音声推定における不確実性モデリングの利点について検討する。
論文 参考訳(メタデータ) (2023-05-15T15:55:12Z) - Toward Reliable Human Pose Forecasting with Uncertainty [62.83828620074307]
我々は、複数のモデル、データセット、標準化された評価指標を特徴とする、人間のポーズ予測のためのオープンソースのライブラリを開発した。
本研究では,不確かさの挙動に関する知識を注入するために,不確実性事前を用いてアレタリック不確かさをモデル化する手法を提案する。
実験では,精度が最大で25%向上し,不確実性推定の性能が向上した。
論文 参考訳(メタデータ) (2023-04-13T17:56:08Z) - Model-Based Uncertainty in Value Functions [89.31922008981735]
MDP上の分布によって引き起こされる値の分散を特徴付けることに重点を置いている。
従来の作業は、いわゆる不確実性ベルマン方程式を解くことで、値よりも後方の分散を境界にしている。
我々は、解が値の真後分散に収束する新しい不確実性ベルマン方程式を提案する。
論文 参考訳(メタデータ) (2023-02-24T09:18:27Z) - On Attacking Out-Domain Uncertainty Estimation in Deep Neural Networks [11.929914721626849]
我々は,現在最先端の不確実性推定アルゴリズムが,我々の提案した敵攻撃の下で破滅的に失敗する可能性を示唆した。
特に、領域外不確実性推定を攻撃することを目的としている。
論文 参考訳(メタデータ) (2022-10-03T23:33:38Z) - The Unreasonable Effectiveness of Deep Evidential Regression [72.30888739450343]
不確実性を考慮した回帰ベースニューラルネットワーク(NN)による新しいアプローチは、従来の決定論的手法や典型的なベイズ的NNよりも有望であることを示している。
我々は、理論的欠点を詳述し、合成および実世界のデータセットのパフォーマンスを分析し、Deep Evidential Regressionが正確な不確実性ではなく定量化であることを示す。
論文 参考訳(メタデータ) (2022-05-20T10:10:32Z) - Dense Uncertainty Estimation via an Ensemble-based Conditional Latent
Variable Model [68.34559610536614]
我々は、アレータリック不確実性はデータの固有の特性であり、偏見のないオラクルモデルでのみ正確に推定できると論じる。
そこで本研究では,軌道不確実性推定のためのオラクルモデルを近似するために,列車時の新しいサンプリングと選択戦略を提案する。
以上の結果から,提案手法は精度の高い決定論的結果と確実な不確実性推定の両方を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-11-22T08:54:10Z) - Dense Uncertainty Estimation [62.23555922631451]
本稿では,ニューラルネットワークと不確実性推定手法について検討し,正確な決定論的予測と確実性推定の両方を実現する。
本研究では,アンサンブルに基づく手法と生成モデルに基づく手法の2つの不確実性推定法について検討し,それらの長所と短所を,完全/半端/弱度に制御されたフレームワークを用いて説明する。
論文 参考訳(メタデータ) (2021-10-13T01:23:48Z) - DEUP: Direct Epistemic Uncertainty Prediction [56.087230230128185]
認識の不確実性は、学習者の知識の欠如によるサンプル外の予測エラーの一部である。
一般化誤差の予測を学習し, aleatoric uncertaintyの推定を減算することで, 認識的不確かさを直接推定する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2021-02-16T23:50:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。