論文の概要: Errors-in-Variables for deep learning: rethinking aleatoric uncertainty
- arxiv url: http://arxiv.org/abs/2105.09095v1
- Date: Wed, 19 May 2021 12:37:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-20 16:30:53.237265
- Title: Errors-in-Variables for deep learning: rethinking aleatoric uncertainty
- Title(参考訳): ディープラーニングにおけるエラーイン変数--アレエータ的不確実性再考
- Authors: J\"org Martin and Clemens Elster
- Abstract要約: 本稿では,ニューラルネットワークへの入力に伴う不確実性を考慮したErrors-in-Variablesモデルを用いたディープレグレッションのためのベイズ処理について述べる。
この処理を,変分推論に基づく不確実性定量化のための既存のアプローチとどのように組み合わせることができるかを示す。
- 参考スコア(独自算出の注目度): 0.7310043452300736
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a Bayesian treatment for deep regression using an
Errors-in-Variables model which accounts for the uncertainty associated with
the input to the employed neural network. It is shown how the treatment can be
combined with already existing approaches for uncertainty quantification that
are based on variational inference. Our approach yields a decomposition of the
predictive uncertainty into an aleatoric and epistemic part that is more
complete and, in many cases, more consistent from a statistical perspective. We
illustrate and discuss the approach along various toy and real world examples.
- Abstract(参考訳): 本稿では,ニューラルネットワークへの入力の不確実性を考慮したエラーイン変数モデルを用いて,深い回帰に対するベイズ法を提案する。
この処理を,変分推論に基づく不確実性定量化のための既存のアプローチとどのように組み合わせることができるかを示す。
我々のアプローチは、予測の不確実性の分解を、より完全で、多くの場合、統計的観点からより一貫した、動脈とてんかんの部分へと導く。
様々な玩具や実世界の例でそのアプローチを説明し,議論する。
関連論文リスト
- Zero-Shot Uncertainty Quantification using Diffusion Probabilistic Models [7.136205674624813]
拡散モデルを用いて異なる回帰問題の解法におけるアンサンブル法の有効性を評価する。
本研究では,様々な回帰タスクにおいて,アンサンブル手法がモデル予測精度を一貫して向上することを実証する。
本研究は,拡散アンサンブルの有用性を包括的に把握し,回帰問題解決における拡散モデルを用いた実践者にとって有用な参考となる。
論文 参考訳(メタデータ) (2024-08-08T18:34:52Z) - Beyond the Norms: Detecting Prediction Errors in Regression Models [26.178065248948773]
本稿では,回帰アルゴリズムにおける信頼できない振る舞いを検出するという課題に取り組む。
回帰器の出力が特定の不一致(または誤り)を超えた場合、回帰における不確実性の概念を導入する。
複数の回帰タスクに対する誤り検出の実証的改善を示す。
論文 参考訳(メタデータ) (2024-06-11T05:51:44Z) - Efficient Normalized Conformal Prediction and Uncertainty Quantification
for Anti-Cancer Drug Sensitivity Prediction with Deep Regression Forests [0.0]
予測間隔で機械学習モデルをペアリングするための有望な方法として、コンフォーマル予測が登場した。
本研究では,深部回帰林から得られた分散度を算出し,各試料の不確かさを推定する手法を提案する。
論文 参考訳(メタデータ) (2024-02-21T19:09:53Z) - Identifying Drivers of Predictive Aleatoric Uncertainty [2.5311562666866494]
本稿では,予測的アレタリック不確実性を説明するための簡単なアプローチを提案する。
我々は、ガウス出力分布にニューラルネットワークを適用することにより、不確実性を予測分散として推定する。
我々は、実世界のデータセットを含むニュアンスなベンチマーク分析を用いて、この結果の定量化を行う。
論文 参考訳(メタデータ) (2023-12-12T13:28:53Z) - Selective Nonparametric Regression via Testing [54.20569354303575]
本研究では,所定の点における条件分散の値に関する仮説を検証し,留置手順を開発する。
既存の手法とは異なり、提案手法は分散自体の値だけでなく、対応する分散予測器の不確実性についても考慮することができる。
論文 参考訳(メタデータ) (2023-09-28T13:04:11Z) - Quantification of Predictive Uncertainty via Inference-Time Sampling [57.749601811982096]
本稿では,データあいまいさの予測不確実性を推定するためのポストホックサンプリング手法を提案する。
この方法は与えられた入力に対して異なる可算出力を生成することができ、予測分布のパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2023-08-03T12:43:21Z) - The Implicit Delta Method [61.36121543728134]
本稿では,不確実性のトレーニング損失を無限に正規化することで機能する,暗黙のデルタ法を提案する。
有限差分により無限小変化が近似された場合でも, 正則化による評価の変化は評価推定器の分散に一定であることを示す。
論文 参考訳(メタデータ) (2022-11-11T19:34:17Z) - Dense Uncertainty Estimation via an Ensemble-based Conditional Latent
Variable Model [68.34559610536614]
我々は、アレータリック不確実性はデータの固有の特性であり、偏見のないオラクルモデルでのみ正確に推定できると論じる。
そこで本研究では,軌道不確実性推定のためのオラクルモデルを近似するために,列車時の新しいサンプリングと選択戦略を提案する。
以上の結果から,提案手法は精度の高い決定論的結果と確実な不確実性推定の両方を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-11-22T08:54:10Z) - The Hidden Uncertainty in a Neural Networks Activations [105.4223982696279]
ニューラルネットワークの潜在表現の分布は、アウト・オブ・ディストリビューション(OOD)データの検出に成功している。
本研究は、この分布が、モデルの不確実性と相関しているかどうかを考察し、新しい入力に一般化する能力を示す。
論文 参考訳(メタデータ) (2020-12-05T17:30:35Z) - Learning to Predict Error for MRI Reconstruction [67.76632988696943]
提案手法による予測の不確実性は予測誤差と強く相関しないことを示す。
本稿では,2段階の予測誤差の目標ラベルと大小を推定する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-02-13T15:55:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。