論文の概要: Learning Uncertainty For Safety-Oriented Semantic Segmentation In
Autonomous Driving
- arxiv url: http://arxiv.org/abs/2105.13688v1
- Date: Fri, 28 May 2021 09:23:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-31 13:36:49.007416
- Title: Learning Uncertainty For Safety-Oriented Semantic Segmentation In
Autonomous Driving
- Title(参考訳): 自動運転における安全指向意味セグメンテーションの学習不確実性
- Authors: Victor Besnier, David Picard, Alexandre Briot
- Abstract要約: 自律運転における安全クリティカル画像セグメンテーションを実現するために、不確実性推定をどのように活用できるかを示す。
相似性関数によって測定された不一致予測に基づく新しい不確実性尺度を導入する。
本研究では,提案手法が競合手法よりも推論時間において計算集約性が低いことを示す。
- 参考スコア(独自算出の注目度): 77.39239190539871
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper, we show how uncertainty estimation can be leveraged to enable
safety critical image segmentation in autonomous driving, by triggering a
fallback behavior if a target accuracy cannot be guaranteed. We introduce a new
uncertainty measure based on disagreeing predictions as measured by a
dissimilarity function. We propose to estimate this dissimilarity by training a
deep neural architecture in parallel to the task-specific network. It allows
this observer to be dedicated to the uncertainty estimation, and let the
task-specific network make predictions. We propose to use self-supervision to
train the observer, which implies that our method does not require additional
training data. We show experimentally that our proposed approach is much less
computationally intensive at inference time than competing methods (e.g.
MCDropout), while delivering better results on safety-oriented evaluation
metrics on the CamVid dataset, especially in the case of glare artifacts.
- Abstract(参考訳): 本稿では,目標精度が保証できない場合にフォールバック動作を発生させることにより,自律運転における安全性クリティカルな画像分割を実現するために不確実性推定をどのように活用するかを示す。
類似度関数による不一致予測に基づく新しい不確実性尺度を提案する。
本稿では,タスク固有のネットワークと並行して,ディープラーニングアーキテクチャをトレーニングすることで,この相似性を推定する。
これにより、このオブザーバは不確実性推定に専念でき、タスク固有のネットワークが予測できる。
我々は,観察者の学習に自己監督を用いることを提案し,この方法が追加のトレーニングデータを必要としないことを示唆している。
提案手法は, 競合する手法(例えば, 提案手法)よりも推論時間において計算集約性が低いことを示す。
MCDropout)は、特にグラアアーティファクトの場合、CamVidデータセット上の安全指向評価メトリクスに関するより良い結果を提供する一方で、より良い結果を提供する。
関連論文リスト
- Quantification of Predictive Uncertainty via Inference-Time Sampling [57.749601811982096]
本稿では,データあいまいさの予測不確実性を推定するためのポストホックサンプリング手法を提案する。
この方法は与えられた入力に対して異なる可算出力を生成することができ、予測分布のパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2023-08-03T12:43:21Z) - DUDES: Deep Uncertainty Distillation using Ensembles for Semantic
Segmentation [11.099838952805325]
予測の不確実性の定量化は、そのようなアプリケーションにディープニューラルネットワークを使用するための、有望な取り組みである。
本稿では,アンサンブルを用いた深部不確実性蒸留(DuDES)と呼ばれる,効率的かつ確実な不確実性評価手法を提案する。
DUDESはディープ・アンサンブル(Deep Ensemble)による学生-教師の蒸留を適用し、予測の不確かさを1つの前方パスで正確に推定する。
論文 参考訳(メタデータ) (2023-03-17T08:56:27Z) - Uncertainty Estimation by Fisher Information-based Evidential Deep
Learning [61.94125052118442]
不確実性推定は、ディープラーニングを実用アプリケーションで信頼できるものにする鍵となる要素である。
漁業情報に基づくエビデンシャルディープラーニング(mathcalI$-EDL)を提案する。
特に,各サンプルが有する証拠の情報量を測定するためにFisher Information Matrix (FIM)を導入し,目的的損失項を動的に重み付けし,不確実なクラスの表現学習に集中させる。
論文 参考訳(メタデータ) (2023-03-03T16:12:59Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - CertainNet: Sampling-free Uncertainty Estimation for Object Detection [65.28989536741658]
ニューラルネットワークの不確実性を推定することは、安全クリティカルな設定において基本的な役割を果たす。
本研究では,オブジェクト検出のための新しいサンプリング不要不確実性推定法を提案する。
私たちはそれをCertainNetと呼び、各出力信号に対して、オブジェクト性、クラス、位置、サイズという、別の不確実性を提供するのは、これが初めてです。
論文 参考訳(メタデータ) (2021-10-04T17:59:31Z) - Exploring Uncertainty in Deep Learning for Construction of Prediction
Intervals [27.569681578957645]
深層学習における不確実性を探究し,予測区間を構築する。
不確実性ラベルなしで不確実性を学習できる特殊損失関数を設計した。
本手法は予測間隔の構成と不確実性推定とを関連付ける。
論文 参考訳(メタデータ) (2021-04-27T02:58:20Z) - Probabilistic Deep Learning for Instance Segmentation [9.62543698736491]
提案手法は,提案不要なインスタンスセグメンテーションモデルにおけるモデル独立不確実性推定値を得るための汎用的な手法である。
本手法は,BBBC010 C. elegansデータセットを用いて評価し,競合性能を示す。
論文 参考訳(メタデータ) (2020-08-24T19:51:48Z) - On the uncertainty of self-supervised monocular depth estimation [52.13311094743952]
単眼深度推定のための自己監督的パラダイムは、基礎的な真理アノテーションを全く必要としないため、非常に魅力的である。
我々は,このタスクの不確かさを推定する方法と,これが深さ精度にどのように影響するかを初めて検討する。
自己教師型アプローチに特化して設計された,斬新な手法を提案する。
論文 参考訳(メタデータ) (2020-05-13T09:00:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。