論文の概要: Aleatoric uncertainty for Errors-in-Variables models in deep regression
- arxiv url: http://arxiv.org/abs/2105.09095v3
- Date: Fri, 12 May 2023 11:25:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-15 16:58:01.489061
- Title: Aleatoric uncertainty for Errors-in-Variables models in deep regression
- Title(参考訳): 深回帰におけるエラーイン変数モデルのアレエータ的不確かさ
- Authors: J\"org Martin and Clemens Elster
- Abstract要約: Errors-in-Variablesの概念がベイズ的深部回帰においてどのように利用できるかを示す。
様々なシミュレートされた実例に沿ったアプローチについて論じる。
- 参考スコア(独自算出の注目度): 0.48733623015338234
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A Bayesian treatment of deep learning allows for the computation of
uncertainties associated with the predictions of deep neural networks. We show
how the concept of Errors-in-Variables can be used in Bayesian deep regression
to also account for the uncertainty associated with the input of the employed
neural network. The presented approach thereby exploits a relevant, but
generally overlooked, source of uncertainty and yields a decomposition of the
predictive uncertainty into an aleatoric and epistemic part that is more
complete and, in many cases, more consistent from a statistical perspective. We
discuss the approach along various simulated and real examples and observe that
using an Errors-in-Variables model leads to an increase in the uncertainty
while preserving the prediction performance of models without
Errors-in-Variables. For examples with known regression function we observe
that this ground truth is substantially better covered by the
Errors-in-Variables model, indicating that the presented approach leads to a
more reliable uncertainty estimation.
- Abstract(参考訳): ディープラーニングのベイズ処理は、ディープニューラルネットワークの予測に関連する不確実性の計算を可能にする。
本稿では,ベイズ深回帰法において,ニューラルネットワークの入力に関する不確実性を説明するために,エラーイン変数の概念をどのように利用するかを示す。
提案されたアプローチは、関連するが概して見落とされ、不確実性の源となり、予測的不確実性の分解を、より完全で、多くの場合、統計的な観点からより一貫したアレタリックな部分へと導く。
本稿では,様々なシミュレーションおよび実例について考察し,エラーイン変数モデルを用いることで,モデルの予測性能を維持しつつ不確実性が高まることを観察する。
既知の回帰関数の例では、この基底的真理が変数内誤差モデルによってかなり良くカバーされていることを観測し、提案手法がより信頼性の高い不確実性推定につながることを示唆する。
関連論文リスト
- Efficient Normalized Conformal Prediction and Uncertainty Quantification
for Anti-Cancer Drug Sensitivity Prediction with Deep Regression Forests [0.0]
予測間隔で機械学習モデルをペアリングするための有望な方法として、コンフォーマル予測が登場した。
本研究では,深部回帰林から得られた分散度を算出し,各試料の不確かさを推定する手法を提案する。
論文 参考訳(メタデータ) (2024-02-21T19:09:53Z) - Identifying Drivers of Predictive Uncertainty using Variance Feature
Attribution [2.765106384328772]
変数特徴属性は、予測的アレタリック不確実性を説明するための単純でスケーラブルなソリューションである。
提案手法は,確立されたベースラインCLUEよりも,不確実性の影響を確実かつ高速に説明できることを示す。
我々の説明は笑い線のような不確実性の原因を浮き彫りにする。
論文 参考訳(メタデータ) (2023-12-12T13:28:53Z) - Selective Nonparametric Regression via Testing [54.20569354303575]
本研究では,所定の点における条件分散の値に関する仮説を検証し,留置手順を開発する。
既存の手法とは異なり、提案手法は分散自体の値だけでなく、対応する分散予測器の不確実性についても考慮することができる。
論文 参考訳(メタデータ) (2023-09-28T13:04:11Z) - Quantification of Predictive Uncertainty via Inference-Time Sampling [57.749601811982096]
本稿では,データあいまいさの予測不確実性を推定するためのポストホックサンプリング手法を提案する。
この方法は与えられた入力に対して異なる可算出力を生成することができ、予測分布のパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2023-08-03T12:43:21Z) - The Implicit Delta Method [61.36121543728134]
本稿では,不確実性のトレーニング損失を無限に正規化することで機能する,暗黙のデルタ法を提案する。
有限差分により無限小変化が近似された場合でも, 正則化による評価の変化は評価推定器の分散に一定であることを示す。
論文 参考訳(メタデータ) (2022-11-11T19:34:17Z) - Bayesian Neural Networks for Reversible Steganography [0.7614628596146599]
ベイズ深層学習の理論的枠組みに基づく予測モデルにおける不確実性を検討することを提案する。
我々はモンテカルロサンプリングによる後方予測分布を可逆な前方通過で近似した。
予測の不確実性はアレータリックな不確実性に切り離すことができ、これらの量は教師なしの方法で学習可能であることを示す。
論文 参考訳(メタデータ) (2022-01-07T14:56:33Z) - Dense Uncertainty Estimation via an Ensemble-based Conditional Latent
Variable Model [68.34559610536614]
我々は、アレータリック不確実性はデータの固有の特性であり、偏見のないオラクルモデルでのみ正確に推定できると論じる。
そこで本研究では,軌道不確実性推定のためのオラクルモデルを近似するために,列車時の新しいサンプリングと選択戦略を提案する。
以上の結果から,提案手法は精度の高い決定論的結果と確実な不確実性推定の両方を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-11-22T08:54:10Z) - The Hidden Uncertainty in a Neural Networks Activations [105.4223982696279]
ニューラルネットワークの潜在表現の分布は、アウト・オブ・ディストリビューション(OOD)データの検出に成功している。
本研究は、この分布が、モデルの不確実性と相関しているかどうかを考察し、新しい入力に一般化する能力を示す。
論文 参考訳(メタデータ) (2020-12-05T17:30:35Z) - Dropout Strikes Back: Improved Uncertainty Estimation via Diversity
Sampling [3.077929914199468]
ニューラルネットワークにおけるドロップアウト層に対するサンプリング分布の変更により,不確実性評価の品質が向上することを示す。
主要なアイデアは、ニューロン間のデータ駆動相関を計算し、最大多様なニューロンを含むサンプルを生成する、という2つの主要なステップで構成されています。
論文 参考訳(メタデータ) (2020-03-06T15:20:04Z) - Learning to Predict Error for MRI Reconstruction [67.76632988696943]
提案手法による予測の不確実性は予測誤差と強く相関しないことを示す。
本稿では,2段階の予測誤差の目標ラベルと大小を推定する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-02-13T15:55:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。