論文の概要: Prediction Surface Uncertainty Quantification in Object Detection Models
for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2107.04991v1
- Date: Sun, 11 Jul 2021 08:31:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-13 16:18:55.517121
- Title: Prediction Surface Uncertainty Quantification in Object Detection Models
for Autonomous Driving
- Title(参考訳): 自律走行用物体検出モデルにおける表面不確かさの定量化
- Authors: Ferhat Ozgur Catak, Tao Yue, Shaukat Ali
- Abstract要約: 自律走行車における物体検出は、一般的にカメラ画像とライダー入力に基づいており、予測モデルを訓練するためにしばしば使用される。
このような回帰モデルの予測不確実性を測定するために,PURE (Prediction sURface uncErtainty) と呼ばれる新しい手法を提案する。
- 参考スコア(独自算出の注目度): 5.784950275336468
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object detection in autonomous cars is commonly based on camera images and
Lidar inputs, which are often used to train prediction models such as deep
artificial neural networks for decision making for object recognition,
adjusting speed, etc. A mistake in such decision making can be damaging; thus,
it is vital to measure the reliability of decisions made by such prediction
models via uncertainty measurement. Uncertainty, in deep learning models, is
often measured for classification problems. However, deep learning models in
autonomous driving are often multi-output regression models. Hence, we propose
a novel method called PURE (Prediction sURface uncErtainty) for measuring
prediction uncertainty of such regression models. We formulate the object
recognition problem as a regression model with more than one outputs for
finding object locations in a 2-dimensional camera view. For evaluation, we
modified three widely-applied object recognition models (i.e., YoLo, SSD300 and
SSD512) and used the KITTI, Stanford Cars, Berkeley DeepDrive, and NEXET
datasets. Results showed the statistically significant negative correlation
between prediction surface uncertainty and prediction accuracy suggesting that
uncertainty significantly impacts the decisions made by autonomous driving.
- Abstract(参考訳): 自動運転車における物体検出は、一般的にカメラ画像とlidar入力に基づいており、オブジェクト認識や速度調整などの意思決定のためのディープニューラルネットワークなどの予測モデルを訓練するためによく使用される。
このような意思決定における誤りが損なわれる可能性があるため、不確実性の測定を通じて、そのような予測モデルによる決定の信頼性を測定することが不可欠である。
不確実性は、ディープラーニングモデルにおいて、しばしば分類問題に対して測定される。
しかし、自動運転におけるディープラーニングモデルは、しばしば多出力回帰モデルである。
そこで,このような回帰モデルの予測不確実性を測定するために,pure (prediction surface uncertainty) と呼ばれる新しい手法を提案する。
物体認識問題を2次元カメラビューにおける物体位置を見つけるために複数の出力を持つ回帰モデルとして定式化する。
評価のために、広く応用された3つのオブジェクト認識モデル(YoLo、SSD300、SSD512)を修正し、KITTI、Stanford Cars、Berkeley DeepDrive、NEXETデータセットを使用しました。
その結果,予測表面の不確かさと予測精度との間に統計的に有意な負の相関がみられた。
関連論文リスト
- Uncertainty Estimation for 3D Object Detection via Evidential Learning [63.61283174146648]
本稿では,3次元検出器における鳥の視線表示における明らかな学習損失を利用して,3次元物体検出の不確かさを定量化するためのフレームワークを提案する。
本研究では,これらの不確実性評価の有効性と重要性を,分布外シーンの特定,局所化の不十分な物体の発見,および(偽陰性)検出の欠如について示す。
論文 参考訳(メタデータ) (2024-10-31T13:13:32Z) - Estimating Uncertainty with Implicit Quantile Network [0.0]
不確かさの定量化は多くの性能クリティカルなアプリケーションにおいて重要な部分である。
本稿では,アンサンブル学習やベイズニューラルネットワークなど,既存のアプローチに対する簡単な代替手段を提供する。
論文 参考訳(メタデータ) (2024-08-26T13:33:14Z) - Uncertainty-Aware AB3DMOT by Variational 3D Object Detection [74.8441634948334]
不確実性推定は統計的に正確な予測を提供する効果的なツールである。
本稿では,変分ニューラルネットワークを用いたTANet 3Dオブジェクト検出器を提案し,不確実性のある3Dオブジェクト検出を行う。
論文 参考訳(メタデータ) (2023-02-12T14:30:03Z) - Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction [50.79827516897913]
本稿では,意味概念間で不確実性を分散する軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-16T06:28:20Z) - Autoregressive Uncertainty Modeling for 3D Bounding Box Prediction [63.3021778885906]
3Dバウンディングボックスは、多くのコンピュータビジョンアプリケーションで広く使われている中間表現である。
本稿では,自己回帰モデルを利用して高い信頼度予測と意味のある不確実性対策を行う手法を提案する。
我々はシミュレーションデータセットであるCOB-3Dをリリースし、現実世界のロボティクスアプリケーションで発生する新しいタイプのあいまいさを強調します。
論文 参考訳(メタデータ) (2022-10-13T23:57:40Z) - Probabilistic model-error assessment of deep learning proxies: an
application to real-time inversion of borehole electromagnetic measurements [0.0]
深部電磁法(EM)測定における深部学習モデルの近似特性と関連するモデル誤差の影響について検討した。
フォワードモデルとしてディープニューラルネットワーク(DNN)を使用することで、数秒で数千のモデル評価を実行できます。
本稿では, モデル誤差を無視しながら, EM測定の逆転に伴う問題を明らかにする数値計算結果を提案する。
論文 参考訳(メタデータ) (2022-05-25T11:44:48Z) - Uncertainty estimation of pedestrian future trajectory using Bayesian
approximation [137.00426219455116]
動的トラフィックシナリオでは、決定論的予測に基づく計画は信頼できない。
著者らは、決定論的アプローチが捉えられない近似を用いて予測中の不確実性を定量化する。
将来の状態の不確実性に対する降雨重量と長期予測の影響について検討した。
論文 参考訳(メタデータ) (2022-05-04T04:23:38Z) - MDN-VO: Estimating Visual Odometry with Confidence [34.8860186009308]
視覚オドメトリー(VO)は、ロボット工学や自律システムを含む多くのアプリケーションで使われている。
本研究では、6-DoFのポーズを推定する深層学習に基づくVOモデルと、これらの推定に対する信頼度モデルを提案する。
本実験は,本モデルが故障事例の検出に加えて,最先端の性能を上回ることを示す。
論文 参考訳(メタデータ) (2021-12-23T19:26:04Z) - Dense Uncertainty Estimation [62.23555922631451]
本稿では,ニューラルネットワークと不確実性推定手法について検討し,正確な決定論的予測と確実性推定の両方を実現する。
本研究では,アンサンブルに基づく手法と生成モデルに基づく手法の2つの不確実性推定法について検討し,それらの長所と短所を,完全/半端/弱度に制御されたフレームワークを用いて説明する。
論文 参考訳(メタデータ) (2021-10-13T01:23:48Z) - Monte Carlo DropBlock for Modelling Uncertainty in Object Detection [4.406418914680961]
本研究では,オブジェクト検出およびセグメント化タスクにおける不確実性をモデル化するための,効率的かつ効果的な手法を提案する。
提案手法は、YOLOのようなディープラーニングモデルの畳み込み層において、トレーニング時間とテスト時間の間にドロップブロックを適用する。
論文 参考訳(メタデータ) (2021-08-08T11:34:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。