論文の概要: Investigation of Uncertainty of Deep Learning-based Object
Classification on Radar Spectra
- arxiv url: http://arxiv.org/abs/2106.05870v1
- Date: Tue, 1 Jun 2021 09:50:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-13 14:02:07.612117
- Title: Investigation of Uncertainty of Deep Learning-based Object
Classification on Radar Spectra
- Title(参考訳): レーダースペクトルを用いた深層学習対象分類の不確かさの検討
- Authors: Kanil Patel, William Beluch, Kilian Rambach, Adriana-Eliza Cozma,
Michael Pfeiffer and Bin Yang
- Abstract要約: ディープラーニング(DL)は、自動車レーダのオブジェクトタイプ分類を改善することへの関心が高まっている。
現在のDL研究は、予測の不確実性を定量化する方法について研究している。
本稿では,これらの手法が安全で自動車のレーダ認識に有効であることを示す。
- 参考スコア(独自算出の注目度): 8.797293761152604
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning (DL) has recently attracted increasing interest to improve
object type classification for automotive radar.In addition to high accuracy,
it is crucial for decision making in autonomous vehicles to evaluate the
reliability of the predictions; however, decisions of DL networks are
non-transparent. Current DL research has investigated how uncertainties of
predictions can be quantified, and in this article, we evaluate the potential
of these methods for safe, automotive radar perception. In particular we
evaluate how uncertainty quantification can support radar perception under (1)
domain shift, (2) corruptions of input signals, and (3) in the presence of
unknown objects. We find that in agreement with phenomena observed in the
literature,deep radar classifiers are overly confident, even in their wrong
predictions. This raises concerns about the use of the confidence values for
decision making under uncertainty, as the model fails to notify when it cannot
handle an unknown situation. Accurate confidence values would allow optimal
integration of multiple information sources, e.g. via sensor fusion. We show
that by applying state-of-the-art post-hoc uncertainty calibration, the quality
of confidence measures can be significantly improved,thereby partially
resolving the over-confidence problem. Our investigation shows that further
research into training and calibrating DL networks is necessary and offers
great potential for safe automotive object classification with radar sensors.
- Abstract(参考訳): 近年,自動車用レーダの物体分類精度向上への関心が高まっているが,高い精度に加えて,予測の信頼性を評価する上で自動運転車の意思決定が重要であるが,dlネットワークの判断は不透明である。
近年のDL研究は,予測の不確かさの定量化について検討しており,本稿では,これらの手法が自動車のレーダ認識に有効である可能性について検討する。
特に,(1)領域シフト,(2)入力信号の破損,(3)未知物体の存在下での不確実性定量化がレーダ知覚をどのように支援できるかを評価する。
文献に見られる現象と一致して、深いレーダー分類器は間違った予測であっても過度に自信を持っていることがわかった。
モデルが未知の状況に対処できない場合に通知できないため、不確実性下での意思決定に信頼値を使用することに対する懸念が高まる。
正確な信頼度は、例えば複数の情報ソースの最適な統合を可能にする。
センサー・フュージョン経由で
本研究では, 最先端のポストホック不確実性校正を適用することにより, 信頼性対策の質を著しく向上できることを示す。
本研究は、DLネットワークのトレーニングと校正に関するさらなる研究が必要であることを示し、レーダーセンサを用いた安全な自動車物体分類の可能性を示している。
関連論文リスト
- Uncertainty Estimation for 3D Object Detection via Evidential Learning [63.61283174146648]
本稿では,3次元検出器における鳥の視線表示における明らかな学習損失を利用して,3次元物体検出の不確かさを定量化するためのフレームワークを提案する。
本研究では,これらの不確実性評価の有効性と重要性を,分布外シーンの特定,局所化の不十分な物体の発見,および(偽陰性)検出の欠如について示す。
論文 参考訳(メタデータ) (2024-10-31T13:13:32Z) - Predicting Safety Misbehaviours in Autonomous Driving Systems using Uncertainty Quantification [8.213390074932132]
本稿では, 深層学習領域と異なる不確実性定量化手法を, 安全クリティカルな誤動作の予測試験のために評価する。
車両が実施する不確実性スコアは、高い不確実性スコアがサポートされていない実行条件を示すという直感に従って計算する。
本研究では,MC-DropoutとDeep Ensemblesの2つの不確実な定量化手法,すなわち,誤動作回避のための有効性と計算オーバーヘッドの評価を行った。
論文 参考訳(メタデータ) (2024-04-29T10:28:28Z) - UncertaintyTrack: Exploiting Detection and Localization Uncertainty in Multi-Object Tracking [8.645078288584305]
マルチオブジェクトトラッキング(MOT)手法は近年,性能が大幅に向上している。
複数のTBDトラッカーに適用可能なエクステンションのコレクションであるUncertaintyTrackを紹介します。
バークレーディープドライブMOTデータセットの実験では、我々の手法と情報的不確実性推定の組み合わせにより、IDスイッチの数を約19%削減している。
論文 参考訳(メタデータ) (2024-02-19T17:27:04Z) - Uncertainty-Aware AB3DMOT by Variational 3D Object Detection [74.8441634948334]
不確実性推定は統計的に正確な予測を提供する効果的なツールである。
本稿では,変分ニューラルネットワークを用いたTANet 3Dオブジェクト検出器を提案し,不確実性のある3Dオブジェクト検出を行う。
論文 参考訳(メタデータ) (2023-02-12T14:30:03Z) - A Review of Uncertainty Calibration in Pretrained Object Detectors [5.440028715314566]
多クラス設定における事前訓練対象検出アーキテクチャの不確実性校正特性について検討する。
公平でバイアスのない,繰り返し可能な評価を実現するためのフレームワークを提案する。
検出器のキャリブレーションが低い理由について、新しい知見を提供する。
論文 参考訳(メタデータ) (2022-10-06T14:06:36Z) - Is my Driver Observation Model Overconfident? Input-guided Calibration
Networks for Reliable and Interpretable Confidence Estimates [23.449073032842076]
運転観察モデルは完璧な条件下で展開されることは滅多にない。
生のニューラルネットワークベースのアプローチは、予測品質を大幅に過大評価する傾向がある。
本稿では,CARing(Callibrated Action Recognition with Input Guidance)という,ビデオ表現による信頼度向上学習のためのニューラルネットワークを活用した新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-04-10T12:43:58Z) - CertainNet: Sampling-free Uncertainty Estimation for Object Detection [65.28989536741658]
ニューラルネットワークの不確実性を推定することは、安全クリティカルな設定において基本的な役割を果たす。
本研究では,オブジェクト検出のための新しいサンプリング不要不確実性推定法を提案する。
私たちはそれをCertainNetと呼び、各出力信号に対して、オブジェクト性、クラス、位置、サイズという、別の不確実性を提供するのは、これが初めてです。
論文 参考訳(メタデータ) (2021-10-04T17:59:31Z) - Improving Uncertainty of Deep Learning-based Object Classification on
Radar Spectra using Label Smoothing [9.438141018800636]
我々は、訓練中にラベルスムーシングを用いて、堅牢なリアルタイム不確実性推定を提供するディープレーダスペクトル分類器を学習する。
本稿では、レーダ固有のノウハウを利用してソフトラベルを定義し、分類器が高品質の不確実性推定を出力することを奨励する。
我々の研究は、単純なレーダー知識と複雑なデータ駆動学習アルゴリズムを組み合わせることで、安全な自動車レーダ認識を実現する方法を示している。
論文 参考訳(メタデータ) (2021-09-27T07:49:38Z) - R4Dyn: Exploring Radar for Self-Supervised Monocular Depth Estimation of
Dynamic Scenes [69.6715406227469]
駆動シナリオにおける自己教師付き単眼深度推定は、教師付きアプローチに匹敵する性能を達成した。
本稿では,自己監督型深度推定フレームワーク上に費用効率の高いレーダデータを利用する新しい手法であるR4Dynを提案する。
論文 参考訳(メタデータ) (2021-08-10T17:57:03Z) - Learning Uncertainty For Safety-Oriented Semantic Segmentation In
Autonomous Driving [77.39239190539871]
自律運転における安全クリティカル画像セグメンテーションを実現するために、不確実性推定をどのように活用できるかを示す。
相似性関数によって測定された不一致予測に基づく新しい不確実性尺度を導入する。
本研究では,提案手法が競合手法よりも推論時間において計算集約性が低いことを示す。
論文 参考訳(メタデータ) (2021-05-28T09:23:05Z) - Towards robust sensing for Autonomous Vehicles: An adversarial
perspective [82.83630604517249]
結果として得られる決定が摂動に対して堅牢であることは、最も重要なことです。
敵対的摂動は、意図的に環境や感覚測定の修正を施したものである。
より安全なシステムの構築とデプロイには,センサーシステムの脆弱性を慎重に評価する必要がある。
論文 参考訳(メタデータ) (2020-07-14T05:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。