論文の概要: ObjectTransforms for Uncertainty Quantification and Reduction in Vision-Based Perception for Autonomous Vehicles
- arxiv url: http://arxiv.org/abs/2510.16118v1
- Date: Fri, 17 Oct 2025 18:04:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:38.855837
- Title: ObjectTransforms for Uncertainty Quantification and Reduction in Vision-Based Perception for Autonomous Vehicles
- Title(参考訳): 自律走行車における視線に基づく知覚における不確実性定量化と低減のための物体変換
- Authors: Nishad Sahu, Shounak Sural, Aditya Satish Patil, Ragunathan, Rajkumar,
- Abstract要約: 本稿では,視覚に基づく物体検出における不確実性を定量化・低減する技術であるObjectTransformsを紹介する。
トレーニング時には、ObjectTransformsは個々のオブジェクトに対して色空間の摂動を実行し、照明や色の変化に対する堅牢性を改善する。
推定時には、検出対象に物体摂動を適用し、検出スコアの分散を用いて予測の不確実性を定量化する。
- 参考スコア(独自算出の注目度): 0.8030104928697729
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reliable perception is fundamental for safety critical decision making in autonomous driving. Yet, vision based object detector neural networks remain vulnerable to uncertainty arising from issues such as data bias and distributional shifts. In this paper, we introduce ObjectTransforms, a technique for quantifying and reducing uncertainty in vision based object detection through object specific transformations at both training and inference times. At training time, ObjectTransforms perform color space perturbations on individual objects, improving robustness to lighting and color variations. ObjectTransforms also uses diffusion models to generate realistic, diverse pedestrian instances. At inference time, object perturbations are applied to detected objects and the variance of detection scores are used to quantify predictive uncertainty in real time. This uncertainty signal is then used to filter out false positives and also recover false negatives, improving the overall precision recall curve. Experiments with YOLOv8 on the NuImages 10K dataset demonstrate that our method yields notable accuracy improvements and uncertainty reduction across all object classes during training, while predicting desirably higher uncertainty values for false positives as compared to true positives during inference. Our results highlight the potential of ObjectTransforms as a lightweight yet effective mechanism for reducing and quantifying uncertainty in vision-based perception during training and inference respectively.
- Abstract(参考訳): 自律運転における安全決定には信頼性の高い認識が不可欠である。
しかし、視覚に基づく物体検出ニューラルネットワークは、データバイアスや分布シフトといった問題に起因する不確実性に対して脆弱なままである。
本稿では、学習時間と推論時間の両方でオブジェクト固有の変換を通して、視覚に基づく物体検出の不確かさを定量化し、低減する技術であるObjectTransformsを紹介する。
トレーニング時には、ObjectTransformsは個々のオブジェクトに対して色空間の摂動を実行し、照明や色の変化に対する堅牢性を改善する。
ObjectTransformsはまた、拡散モデルを使用して、現実的で多様な歩行者インスタンスを生成する。
推定時に、検出対象に対して物体摂動を適用し、検出スコアのばらつきを利用して、予測の不確実性をリアルタイムで定量化する。
この不確実性信号は、偽陽性を除去し、偽陰性を回復し、全体的な精度のリコール曲線を改善するために使用される。
NuImages 10KデータセットのYOLOv8を用いた実験により,本手法はトレーニング中の全ての対象クラスに対して顕著な精度向上と不確かさの低減を実現し,仮説中の真正よりも偽陽性に対する不確かさの予測が望ましく高いことを示す。
本研究は,学習中の視覚的知覚の不確かさを減らし,定量化するための軽量かつ効果的なメカニズムとして,ObjectTransformsの可能性を強調した。
関連論文リスト
- Enhancing Rotated Object Detection via Anisotropic Gaussian Bounding Box and Bhattacharyya Distance [0.9786690381850356]
本稿では,検出精度とロバスト性の向上を目的とした改良された損失関数を提案する。
我々は、正方形の物体における等方的分散に関連する問題に対処するために、異方的ガウス表現を使うことを提唱する。
提案手法は,回転物体の幾何学的特性を効果的に捉える回転不変損失関数を組み込むことにより,これらの課題に対処する。
論文 参考訳(メタデータ) (2025-10-18T10:42:30Z) - UncTrack: Reliable Visual Object Tracking with Uncertainty-Aware Prototype Memory Network [75.9933952886197]
UncTrackは、標的位置の不確実性を予測する新しい不確実性対応トランスフォーマーである。
本手法は実験における他の最先端手法よりも優れる。
論文 参考訳(メタデータ) (2025-03-17T07:33:16Z) - Optical aberrations in autonomous driving: Physics-informed parameterized temperature scaling for neural network uncertainty calibration [49.03824084306578]
本稿では,ニューラルネットワークのキャリブレーションアーキテクチャに物理的帰納バイアスを組み込むことにより,AIターゲットアプリケーションの堅牢性と信頼性を高めることを提案する。
信頼に値する不確実性表現と認識連鎖の総合的検証戦略の道を開く。
論文 参考訳(メタデータ) (2024-12-18T10:36:46Z) - Uncertainty Estimation for 3D Object Detection via Evidential Learning [63.61283174146648]
本稿では,3次元検出器における鳥の視線表示における明らかな学習損失を利用して,3次元物体検出の不確かさを定量化するためのフレームワークを提案する。
本研究では,これらの不確実性評価の有効性と重要性を,分布外シーンの特定,局所化の不十分な物体の発見,および(偽陰性)検出の欠如について示す。
論文 参考訳(メタデータ) (2024-10-31T13:13:32Z) - PseudoNeg-MAE: Self-Supervised Point Cloud Learning using Conditional Pseudo-Negative Embeddings [55.55445978692678]
PseudoNeg-MAEは、ポイントクラウドマスマスキングオートエンコーダのグローバルな特徴表現を強化する。
本研究では,ネットワークが識別的表現を保ちながら,よりリッチな変換キューをキャプチャできる新たな損失を提案する。
論文 参考訳(メタデータ) (2024-09-24T07:57:21Z) - Uncertainty-Aware AB3DMOT by Variational 3D Object Detection [74.8441634948334]
不確実性推定は統計的に正確な予測を提供する効果的なツールである。
本稿では,変分ニューラルネットワークを用いたTANet 3Dオブジェクト検出器を提案し,不確実性のある3Dオブジェクト検出を行う。
論文 参考訳(メタデータ) (2023-02-12T14:30:03Z) - Uncertainty Calibration and its Application to Object Detection [0.0]
本研究では,意味的不確実性(どのオブジェクトタイプか)と空間的不確実性(空間的不確実性)について検討する。
オブジェクト検出モデルの予測不確かさが実世界のデータ上で達成された観測誤差と一致しているかを評価する。
論文 参考訳(メタデータ) (2023-02-06T08:41:07Z) - Prediction Surface Uncertainty Quantification in Object Detection Models
for Autonomous Driving [5.784950275336468]
自律走行車における物体検出は、一般的にカメラ画像とライダー入力に基づいており、予測モデルを訓練するためにしばしば使用される。
このような回帰モデルの予測不確実性を測定するために,PURE (Prediction sURface uncErtainty) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-07-11T08:31:15Z) - Physical world assistive signals for deep neural network classifiers --
neither defense nor attack [23.138996515998347]
攻撃中であろうとなかろうと、モデルの信頼度スコアを改善するために最適化されたアシスト信号の概念を導入する。
本手法により生成された補助信号が深層モデルの精度と信頼性を高めることを実験的に評価した。
我々は、現実世界の物体の検知可能性に寄与する可能性のあるパターンを再考したり、回避するために、これらの洞察を利用する方法について議論する。
論文 参考訳(メタデータ) (2021-05-03T04:02:48Z) - Leveraging Uncertainties for Deep Multi-modal Object Detection in
Autonomous Driving [12.310862288230075]
この研究は、LiDAR点雲とRGBカメラ画像を組み合わせて、堅牢で正確な3Dオブジェクト検出を行う確率論的ディープニューラルネットワークを提案する。
分類および回帰作業における不確実性を明示的にモデル化し、不確実性を活用してサンプリング機構を用いて核融合ネットワークを訓練する。
論文 参考訳(メタデータ) (2020-02-01T14:24:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。