論文の概要: Uncertainty-Aware CNNs for Depth Completion: Uncertainty from Beginning
to End
- arxiv url: http://arxiv.org/abs/2006.03349v1
- Date: Fri, 5 Jun 2020 10:18:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 03:06:57.998858
- Title: Uncertainty-Aware CNNs for Depth Completion: Uncertainty from Beginning
to End
- Title(参考訳): ディープ・コンプリートのための不確かさを意識したCNN:最初から最後まで不確かさ
- Authors: Abdelrahman Eldesokey, Michael Felsberg, Karl Holmquist, and Mikael
Persson
- Abstract要約: 本稿では, 疎雑音入力から最終予測まで, 深度データの不確かさのモデル化に着目する。
正規化畳み込みニューラルネットワーク(NCNN)に基づく自己教師型入力信頼度推定器を学習し,入力中の乱れの測定値を特定する手法を提案する。
深度推定のためのKITTIデータセットに対するアプローチを評価すると、予測精度、不確実性尺度の品質、計算効率の点で既存のベイズディープラーニングアプローチよりも優れています。
- 参考スコア(独自算出の注目度): 18.49954482336334
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The focus in deep learning research has been mostly to push the limits of
prediction accuracy. However, this was often achieved at the cost of increased
complexity, raising concerns about the interpretability and the reliability of
deep networks. Recently, an increasing attention has been given to untangling
the complexity of deep networks and quantifying their uncertainty for different
computer vision tasks. Differently, the task of depth completion has not
received enough attention despite the inherent noisy nature of depth sensors.
In this work, we thus focus on modeling the uncertainty of depth data in depth
completion starting from the sparse noisy input all the way to the final
prediction.
We propose a novel approach to identify disturbed measurements in the input
by learning an input confidence estimator in a self-supervised manner based on
the normalized convolutional neural networks (NCNNs). Further, we propose a
probabilistic version of NCNNs that produces a statistically meaningful
uncertainty measure for the final prediction. When we evaluate our approach on
the KITTI dataset for depth completion, we outperform all the existing Bayesian
Deep Learning approaches in terms of prediction accuracy, quality of the
uncertainty measure, and the computational efficiency. Moreover, our small
network with 670k parameters performs on-par with conventional approaches with
millions of parameters. These results give strong evidence that separating the
network into parallel uncertainty and prediction streams leads to
state-of-the-art performance with accurate uncertainty estimates.
- Abstract(参考訳): ディープラーニング研究の焦点は、主に予測精度の限界を押し上げることにある。
しかし、これはしばしば複雑さが増大するコストで達成され、深いネットワークの解釈可能性や信頼性に対する懸念が高まった。
近年、ディープネットワークの複雑さを解き、異なるコンピュータビジョンタスクに対する不確実性を定量化するために注目が集まっている。
異なることに、深度センサの固有のノイズ特性にもかかわらず、深度完了のタスクには十分な注意が払われていない。
そこで本研究では,スパースノイズ入力から最終予測まで,深度データの不確かさをモデル化することに注力する。
本稿では,正規化畳み込みニューラルネットワーク(NCNN)に基づいて,入力信頼度推定器を自己教師型で学習し,入力中の乱れの測定値を特定する手法を提案する。
さらに,最終予測のための統計的に有意な不確実性尺度を生成するncnnsの確率的バージョンを提案する。
深度推定のためのKITTIデータセットに対するアプローチを評価すると、予測精度、不確実性尺度の品質、計算効率の点で既存のベイズディープラーニングアプローチよりも優れています。
さらに,670kのパラメータを持つ小型ネットワークは,従来手法とほぼ同等のパラメータで動作している。
これらの結果は、ネットワークを並列不確実性に分離し、予測ストリームが正確な不確実性推定で最先端のパフォーマンスをもたらすという強い証拠を与える。
関連論文リスト
- Confidence Intervals and Simultaneous Confidence Bands Based on Deep Learning [0.36832029288386137]
本手法は, 適用された最適化アルゴリズムに固有の雑音からデータの不確実性を正しく解き放つことのできる, 有効な非パラメトリックブートストラップ法である。
提案したアドホック法は、トレーニングプロセスに干渉することなく、ディープニューラルネットワークに容易に統合できる。
論文 参考訳(メタデータ) (2024-06-20T05:51:37Z) - DUDES: Deep Uncertainty Distillation using Ensembles for Semantic
Segmentation [11.099838952805325]
予測の不確実性の定量化は、そのようなアプリケーションにディープニューラルネットワークを使用するための、有望な取り組みである。
本稿では,アンサンブルを用いた深部不確実性蒸留(DuDES)と呼ばれる,効率的かつ確実な不確実性評価手法を提案する。
DUDESはディープ・アンサンブル(Deep Ensemble)による学生-教師の蒸留を適用し、予測の不確かさを1つの前方パスで正確に推定する。
論文 参考訳(メタデータ) (2023-03-17T08:56:27Z) - Uncertainty Estimation by Fisher Information-based Evidential Deep
Learning [61.94125052118442]
不確実性推定は、ディープラーニングを実用アプリケーションで信頼できるものにする鍵となる要素である。
漁業情報に基づくエビデンシャルディープラーニング(mathcalI$-EDL)を提案する。
特に,各サンプルが有する証拠の情報量を測定するためにFisher Information Matrix (FIM)を導入し,目的的損失項を動的に重み付けし,不確実なクラスの表現学習に集中させる。
論文 参考訳(メタデータ) (2023-03-03T16:12:59Z) - Fast Uncertainty Estimates in Deep Learning Interatomic Potentials [0.0]
本研究では,単一ニューラルネットワークを用いて,アンサンブルを必要とせずに予測不確実性を推定する手法を提案する。
本研究では,不確実性の推定値の品質が深層アンサンブルから得られた値と一致することを示す。
論文 参考訳(メタデータ) (2022-11-17T20:13:39Z) - The Unreasonable Effectiveness of Deep Evidential Regression [72.30888739450343]
不確実性を考慮した回帰ベースニューラルネットワーク(NN)による新しいアプローチは、従来の決定論的手法や典型的なベイズ的NNよりも有望であることを示している。
我々は、理論的欠点を詳述し、合成および実世界のデータセットのパフォーマンスを分析し、Deep Evidential Regressionが正確な不確実性ではなく定量化であることを示す。
論文 参考訳(メタデータ) (2022-05-20T10:10:32Z) - Robust Depth Completion with Uncertainty-Driven Loss Functions [60.9237639890582]
本研究では,不確実性による損失関数を導入し,深度補修の堅牢性を改善し,深度補修の不確実性に対処する。
提案手法は,KITTI深度評価ベンチマークでテストされ,MAE, IMAE, IRMSEの計測値を用いて最先端のロバスト性性能を達成した。
論文 参考訳(メタデータ) (2021-12-15T05:22:34Z) - Uncertainty-Aware Deep Calibrated Salient Object Detection [74.58153220370527]
既存のディープニューラルネットワークに基づくサルエントオブジェクト検出(SOD)手法は主に高いネットワーク精度の追求に重点を置いている。
これらの手法は、信頼不均衡問題として知られるネットワーク精度と予測信頼の間のギャップを見落としている。
我々は,不確実性を考慮した深部SODネットワークを導入し,深部SODネットワークの過信を防止するための2つの戦略を提案する。
論文 参考訳(メタデータ) (2020-12-10T23:28:36Z) - Uncertainty Quantification in Deep Residual Neural Networks [0.0]
不確かさの定量化は、ディープラーニングにおいて重要で困難な問題である。
以前の方法は、現代のディープアーキテクチャやバッチサイズに敏感なバッチ正規化には存在しないドロップアウト層に依存していた。
本研究では,ニューラルネットワークの後方重みに対する変動近似として,深度を用いた残留ネットワークのトレーニングが可能であることを示す。
論文 参考訳(メタデータ) (2020-07-09T16:05:37Z) - Depth Uncertainty in Neural Networks [2.6763498831034043]
ディープラーニングにおける不確実性を推定する既存の方法は、複数の前方パスを必要とする傾向がある。
フィードフォワードネットワークのシーケンシャルな構造を利用することで、トレーニング目標を評価し、単一のフォワードパスで予測を行うことができる。
実世界の回帰と画像分類タスクに対する我々のアプローチを検証する。
論文 参考訳(メタデータ) (2020-06-15T14:33:40Z) - On the uncertainty of self-supervised monocular depth estimation [52.13311094743952]
単眼深度推定のための自己監督的パラダイムは、基礎的な真理アノテーションを全く必要としないため、非常に魅力的である。
我々は,このタスクの不確かさを推定する方法と,これが深さ精度にどのように影響するかを初めて検討する。
自己教師型アプローチに特化して設計された,斬新な手法を提案する。
論文 参考訳(メタデータ) (2020-05-13T09:00:55Z) - Uncertainty Estimation Using a Single Deep Deterministic Neural Network [66.26231423824089]
本稿では,1回のフォワードパスで,テスト時に分布データポイントの発見と拒否が可能な決定論的ディープモデルを訓練する手法を提案する。
我々は,新しい損失関数とセントロイド更新方式を用いて,これらをスケールトレーニングし,ソフトマックスモデルの精度に適合させる。
論文 参考訳(メタデータ) (2020-03-04T12:27:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。