論文の概要: Exploring Uncertainty in Deep Learning for Construction of Prediction
Intervals
- arxiv url: http://arxiv.org/abs/2104.12953v1
- Date: Tue, 27 Apr 2021 02:58:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-28 13:39:24.988738
- Title: Exploring Uncertainty in Deep Learning for Construction of Prediction
Intervals
- Title(参考訳): 予測区間構築のための深層学習の不確かさの探索
- Authors: Yuandu Lai, Yucheng Shi, Yahong Han, Yunfeng Shao, Meiyu Qi, Bingshuai
Li
- Abstract要約: 深層学習における不確実性を探究し,予測区間を構築する。
不確実性ラベルなしで不確実性を学習できる特殊損失関数を設計した。
本手法は予測間隔の構成と不確実性推定とを関連付ける。
- 参考スコア(独自算出の注目度): 27.569681578957645
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning has achieved impressive performance on many tasks in recent
years. However, it has been found that it is still not enough for deep neural
networks to provide only point estimates. For high-risk tasks, we need to
assess the reliability of the model predictions. This requires us to quantify
the uncertainty of model prediction and construct prediction intervals. In this
paper, We explore the uncertainty in deep learning to construct the prediction
intervals. In general, We comprehensively consider two categories of
uncertainties: aleatory uncertainty and epistemic uncertainty. We design a
special loss function, which enables us to learn uncertainty without
uncertainty label. We only need to supervise the learning of regression task.
We learn the aleatory uncertainty implicitly from the loss function. And that
epistemic uncertainty is accounted for in ensembled form. Our method correlates
the construction of prediction intervals with the uncertainty estimation.
Impressive results on some publicly available datasets show that the
performance of our method is competitive with other state-of-the-art methods.
- Abstract(参考訳): ディープラーニングは近年、多くのタスクで素晴らしいパフォーマンスを達成しています。
しかし、深いニューラルネットワークがポイント推定のみを提供するのに十分ではないことが判明した。
高リスクタスクには,モデル予測の信頼性を評価する必要がある。
これにより、モデル予測の不確実性を定量化し、予測間隔を構築する必要がある。
本稿では,深層学習における不確実性を調べ,予測区間を構成する。
一般に,不確実性の2つのカテゴリを包括的に検討する。
不確実性ラベルなしで不確実性を学習できる特殊損失関数を設計した。
回帰タスクの学習を監督するだけです。
我々は損失関数を暗黙的に学習する。
そして、その疫学的不確実性はアンサンブル形式で説明される。
本手法は予測間隔の構成と不確実性推定とを関連付ける。
いくつかの公開データセットにおける印象的な結果から,本手法の性能は他の最先端手法と競合することを示す。
関連論文リスト
- Fast Uncertainty Estimates in Deep Learning Interatomic Potentials [0.0]
本研究では,単一ニューラルネットワークを用いて,アンサンブルを必要とせずに予測不確実性を推定する手法を提案する。
本研究では,不確実性の推定値の品質が深層アンサンブルから得られた値と一致することを示す。
論文 参考訳(メタデータ) (2022-11-17T20:13:39Z) - Comparison of Uncertainty Quantification with Deep Learning in Time
Series Regression [7.6146285961466]
本稿では,気象時系列データと異なる不確実性推定手法を比較した。
その結果,各不確実性推定手法が予測タスクに与える影響が示された。
論文 参考訳(メタデータ) (2022-11-11T14:29:13Z) - On the Difficulty of Epistemic Uncertainty Quantification in Machine
Learning: The Case of Direct Uncertainty Estimation through Loss Minimisation [8.298716599039501]
不確かさの定量化は機械学習で注目を集めている。
後者は学習者の知識(知識の欠如)を指し、特に測定と定量化が難しいようである。
損失最小化は2次予測器では有効でないことを示す。
論文 参考訳(メタデータ) (2022-03-11T17:26:05Z) - Dense Uncertainty Estimation via an Ensemble-based Conditional Latent
Variable Model [68.34559610536614]
我々は、アレータリック不確実性はデータの固有の特性であり、偏見のないオラクルモデルでのみ正確に推定できると論じる。
そこで本研究では,軌道不確実性推定のためのオラクルモデルを近似するために,列車時の新しいサンプリングと選択戦略を提案する。
以上の結果から,提案手法は精度の高い決定論的結果と確実な不確実性推定の両方を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-11-22T08:54:10Z) - Dense Uncertainty Estimation [62.23555922631451]
本稿では,ニューラルネットワークと不確実性推定手法について検討し,正確な決定論的予測と確実性推定の両方を実現する。
本研究では,アンサンブルに基づく手法と生成モデルに基づく手法の2つの不確実性推定法について検討し,それらの長所と短所を,完全/半端/弱度に制御されたフレームワークを用いて説明する。
論文 参考訳(メタデータ) (2021-10-13T01:23:48Z) - Learning Uncertainty For Safety-Oriented Semantic Segmentation In
Autonomous Driving [77.39239190539871]
自律運転における安全クリティカル画像セグメンテーションを実現するために、不確実性推定をどのように活用できるかを示す。
相似性関数によって測定された不一致予測に基づく新しい不確実性尺度を導入する。
本研究では,提案手法が競合手法よりも推論時間において計算集約性が低いことを示す。
論文 参考訳(メタデータ) (2021-05-28T09:23:05Z) - DEUP: Direct Epistemic Uncertainty Prediction [56.087230230128185]
認識の不確実性は、学習者の知識の欠如によるサンプル外の予測エラーの一部である。
一般化誤差の予測を学習し, aleatoric uncertaintyの推定を減算することで, 認識的不確かさを直接推定する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2021-02-16T23:50:35Z) - Do Not Forget to Attend to Uncertainty while Mitigating Catastrophic
Forgetting [29.196246255389664]
ディープラーニングモデルの大きな制限の1つは、漸進的な学習シナリオにおいて、破滅的な忘れに直面していることだ。
ベイズ式を定式化して,不確実性をモデル化する。
漸進的な学習問題に対処するために、自己認識フレームワークも組み込んでいます。
論文 参考訳(メタデータ) (2021-02-03T06:54:52Z) - Double-Uncertainty Weighted Method for Semi-supervised Learning [32.484750353853954]
教師-学生モデルに基づく半教師付きセグメンテーションのための二重不確かさ重み付き手法を提案する。
ベイジアンディープラーニングを用いて教師モデルを訓練し,セグメンテーションの不確実性と特徴の不確実性を両立させる。
本手法は,2つの公開医療データセットにおいて,最先端の不確実性に基づく半教師付き手法よりも優れている。
論文 参考訳(メタデータ) (2020-10-19T08:20:18Z) - Temporal Difference Uncertainties as a Signal for Exploration [76.6341354269013]
強化学習における探索の効果的なアプローチは、最適な政策に対するエージェントの不確実性に依存することである。
本稿では,評価値のバイアスや時間的に矛盾する点を強調した。
本稿では,時間差誤差の分布の導出に依存する値関数の不確かさを推定する手法を提案する。
論文 参考訳(メタデータ) (2020-10-05T18:11:22Z) - Discriminative Jackknife: Quantifying Uncertainty in Deep Learning via
Higher-Order Influence Functions [121.10450359856242]
我々は、モデル損失関数の影響関数を利用して、予測信頼区間のジャックニフェ(または、アウト・ワン・アウト)推定器を構築する頻繁な手順を開発する。
1)および(2)を満たすDJは、幅広いディープラーニングモデルに適用可能であり、実装が容易であり、モデルトレーニングに干渉したり、精度を妥協したりすることなく、ポストホックな方法で適用することができる。
論文 参考訳(メタデータ) (2020-06-29T13:36:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。