論文の概要: Errors-in-Variables for deep learning: rethinking aleatoric uncertainty
- arxiv url: http://arxiv.org/abs/2105.09095v1
- Date: Wed, 19 May 2021 12:37:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-20 16:30:53.237265
- Title: Errors-in-Variables for deep learning: rethinking aleatoric uncertainty
- Title(参考訳): ディープラーニングにおけるエラーイン変数--アレエータ的不確実性再考
- Authors: J\"org Martin and Clemens Elster
- Abstract要約: 本稿では,ニューラルネットワークへの入力に伴う不確実性を考慮したErrors-in-Variablesモデルを用いたディープレグレッションのためのベイズ処理について述べる。
この処理を,変分推論に基づく不確実性定量化のための既存のアプローチとどのように組み合わせることができるかを示す。
- 参考スコア(独自算出の注目度): 0.7310043452300736
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a Bayesian treatment for deep regression using an
Errors-in-Variables model which accounts for the uncertainty associated with
the input to the employed neural network. It is shown how the treatment can be
combined with already existing approaches for uncertainty quantification that
are based on variational inference. Our approach yields a decomposition of the
predictive uncertainty into an aleatoric and epistemic part that is more
complete and, in many cases, more consistent from a statistical perspective. We
illustrate and discuss the approach along various toy and real world examples.
- Abstract(参考訳): 本稿では,ニューラルネットワークへの入力の不確実性を考慮したエラーイン変数モデルを用いて,深い回帰に対するベイズ法を提案する。
この処理を,変分推論に基づく不確実性定量化のための既存のアプローチとどのように組み合わせることができるかを示す。
我々のアプローチは、予測の不確実性の分解を、より完全で、多くの場合、統計的観点からより一貫した、動脈とてんかんの部分へと導く。
様々な玩具や実世界の例でそのアプローチを説明し,議論する。
関連論文リスト
- Efficient Normalized Conformal Prediction and Uncertainty Quantification
for Anti-Cancer Drug Sensitivity Prediction with Deep Regression Forests [0.0]
予測間隔で機械学習モデルをペアリングするための有望な方法として、コンフォーマル予測が登場した。
本研究では,深部回帰林から得られた分散度を算出し,各試料の不確かさを推定する手法を提案する。
論文 参考訳(メタデータ) (2024-02-21T19:09:53Z) - Identifying Drivers of Predictive Uncertainty using Variance Feature
Attribution [2.765106384328772]
変数特徴属性は、予測的アレタリック不確実性を説明するための単純でスケーラブルなソリューションである。
提案手法は,確立されたベースラインCLUEよりも,不確実性の影響を確実かつ高速に説明できることを示す。
我々の説明は笑い線のような不確実性の原因を浮き彫りにする。
論文 参考訳(メタデータ) (2023-12-12T13:28:53Z) - Selective Nonparametric Regression via Testing [54.20569354303575]
本研究では,所定の点における条件分散の値に関する仮説を検証し,留置手順を開発する。
既存の手法とは異なり、提案手法は分散自体の値だけでなく、対応する分散予測器の不確実性についても考慮することができる。
論文 参考訳(メタデータ) (2023-09-28T13:04:11Z) - Quantification of Predictive Uncertainty via Inference-Time Sampling [57.749601811982096]
本稿では,データあいまいさの予測不確実性を推定するためのポストホックサンプリング手法を提案する。
この方法は与えられた入力に対して異なる可算出力を生成することができ、予測分布のパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2023-08-03T12:43:21Z) - The Implicit Delta Method [61.36121543728134]
本稿では,不確実性のトレーニング損失を無限に正規化することで機能する,暗黙のデルタ法を提案する。
有限差分により無限小変化が近似された場合でも, 正則化による評価の変化は評価推定器の分散に一定であることを示す。
論文 参考訳(メタデータ) (2022-11-11T19:34:17Z) - Bayesian Neural Networks for Reversible Steganography [0.7614628596146599]
ベイズ深層学習の理論的枠組みに基づく予測モデルにおける不確実性を検討することを提案する。
我々はモンテカルロサンプリングによる後方予測分布を可逆な前方通過で近似した。
予測の不確実性はアレータリックな不確実性に切り離すことができ、これらの量は教師なしの方法で学習可能であることを示す。
論文 参考訳(メタデータ) (2022-01-07T14:56:33Z) - Dense Uncertainty Estimation via an Ensemble-based Conditional Latent
Variable Model [68.34559610536614]
我々は、アレータリック不確実性はデータの固有の特性であり、偏見のないオラクルモデルでのみ正確に推定できると論じる。
そこで本研究では,軌道不確実性推定のためのオラクルモデルを近似するために,列車時の新しいサンプリングと選択戦略を提案する。
以上の結果から,提案手法は精度の高い決定論的結果と確実な不確実性推定の両方を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-11-22T08:54:10Z) - The Hidden Uncertainty in a Neural Networks Activations [105.4223982696279]
ニューラルネットワークの潜在表現の分布は、アウト・オブ・ディストリビューション(OOD)データの検出に成功している。
本研究は、この分布が、モデルの不確実性と相関しているかどうかを考察し、新しい入力に一般化する能力を示す。
論文 参考訳(メタデータ) (2020-12-05T17:30:35Z) - Dropout Strikes Back: Improved Uncertainty Estimation via Diversity
Sampling [3.077929914199468]
ニューラルネットワークにおけるドロップアウト層に対するサンプリング分布の変更により,不確実性評価の品質が向上することを示す。
主要なアイデアは、ニューロン間のデータ駆動相関を計算し、最大多様なニューロンを含むサンプルを生成する、という2つの主要なステップで構成されています。
論文 参考訳(メタデータ) (2020-03-06T15:20:04Z) - Learning to Predict Error for MRI Reconstruction [67.76632988696943]
提案手法による予測の不確実性は予測誤差と強く相関しないことを示す。
本稿では,2段階の予測誤差の目標ラベルと大小を推定する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-02-13T15:55:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。