論文の概要: Correcting and Quantifying Systematic Errors in 3D Box Annotations for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2601.14038v1
- Date: Tue, 20 Jan 2026 14:57:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.365779
- Title: Correcting and Quantifying Systematic Errors in 3D Box Annotations for Autonomous Driving
- Title(参考訳): 自動走行のための3次元ボックスアノテーションにおけるシステムエラーの修正と定量化
- Authors: Alexandre Justo Miro, Ludvig af Klinteberg, Bogdan Timus, Aron Asefaw, Ajinkya Khoche, Thomas Gustafsson, Sina Sharif Mansouri, Masoud Daneshtalab,
- Abstract要約: アクティブセンサーのデータに基づく3Dボックスアノテーションは、動的なシナリオでは難しい。
私たちの研究は、広く使われ、公開されているデータセットでこのようなアノテーションエラーを発見する最初のものです。
当社のアプローチは、これらのデータセットでボックスアノテーションの品質を17%以上向上させています。
- 参考スコア(独自算出の注目度): 34.44189129139084
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate ground truth annotations are critical to supervised learning and evaluating the performance of autonomous vehicle systems. These vehicles are typically equipped with active sensors, such as LiDAR, which scan the environment in predefined patterns. 3D box annotation based on data from such sensors is challenging in dynamic scenarios, where objects are observed at different timestamps, hence different positions. Without proper handling of this phenomenon, systematic errors are prone to being introduced in the box annotations. Our work is the first to discover such annotation errors in widely used, publicly available datasets. Through our novel offline estimation method, we correct the annotations so that they follow physically feasible trajectories and achieve spatial and temporal consistency with the sensor data. For the first time, we define metrics for this problem; and we evaluate our method on the Argoverse 2, MAN TruckScenes, and our proprietary datasets. Our approach increases the quality of box annotations by more than 17% in these datasets. Furthermore, we quantify the annotation errors in them and find that the original annotations are misplaced by up to 2.5 m, with highly dynamic objects being the most affected. Finally, we test the impact of the errors in benchmarking and find that the impact is larger than the improvements that state-of-the-art methods typically achieve with respect to the previous state-of-the-art methods; showing that accurate annotations are essential for correct interpretation of performance. Our code is available at https://github.com/alexandre-justo-miro/annotation-correction-3D-boxes.
- Abstract(参考訳): 正確な基底真理アノテーションは、自律走行車システムの性能を教師付き学習および評価するために重要である。
これらの車両は通常、事前に定義されたパターンで環境をスキャンするLiDARのようなアクティブなセンサーを備えている。
このようなセンサのデータに基づく3Dボックスアノテーションは、異なるタイムスタンプでオブジェクトが観察される動的なシナリオでは困難である。
この現象を適切に扱わなければ、体系的なエラーはボックスアノテーションに導入される傾向がある。
私たちの研究は、広く使われ、公開されているデータセットでこのようなアノテーションエラーを発見する最初のものです。
新たなオフライン推定手法により, センサデータとの空間的・時間的整合性を実現するため, 物理的に実現可能な軌道に追従するアノテーションを補正する。
この問題に対するメトリクスを初めて定義し、Argoverse 2、MAN TruckScenes、および当社独自のデータセットでメソッドを評価します。
当社のアプローチは、これらのデータセットでボックスアノテーションの品質を17%以上向上させています。
さらに、アノテーションエラーを定量化し、元のアノテーションが2.5mまでずれており、非常にダイナミックなオブジェクトが最も影響を受けています。
最後に、ベンチマークにおけるエラーの影響を検証し、その影響が、従来の最先端メソッドに対して通常達成される改善よりも大きいことを示し、正確なアノテーションがパフォーマンスの正しい解釈に不可欠であることを示す。
私たちのコードはhttps://github.com/alexandre-justo-miro/annotation-correction-3D-boxesで利用可能です。
関連論文リスト
- Mistake Attribution: Fine-Grained Mistake Understanding in Egocentric Videos [11.138754178370514]
自己中心型ビデオにおける人間の誤りのきめ細やかな理解のためのタスクである「Mistake Attribution(MATT)」を紹介した。
MATTは入力命令テキストまたは試行ビデオに誤りを関連付ける。
既存のデータセットから属性に富んだミスサンプルを自動的に構築するデータエンジンであるMisEngineを開発した。
論文 参考訳(メタデータ) (2025-11-25T17:29:12Z) - Rethinking Metrics and Benchmarks of Video Anomaly Detection [58.37571339811799]
ビデオ異常検出(VAD)は、期待から外れた異常を検出することを目的としている。
既存のVADメトリクスは、単一のアノテーションバイアスの影響を受けます。
既存のベンチマークには、完全に/弱い教師付きアルゴリズムのシーンオーバーフィットを評価する能力がない。
論文 参考訳(メタデータ) (2025-05-25T08:09:42Z) - Automatic Image Annotation for Mapped Features Detection [6.300346102366891]
道路機能は、自動運転とローカライゼーションの鍵となる。
現代のディープラーニングに基づく知覚システムは、大量の注釈付きデータを必要とする。
本稿では,画像中の3つの自動アノテーション手法の融合について考察する。
論文 参考訳(メタデータ) (2024-12-11T09:06:52Z) - Towards Zero-shot 3D Anomaly Localization [58.62650061201283]
3DzALは3D異常検出とローカライゼーションのためのパッチレベルの新しいコントラスト学習フレームワークである。
3DzALは最先端の異常検出および局所化性能より優れていることを示す。
論文 参考訳(メタデータ) (2024-12-05T16:25:27Z) - Uncertainty Estimation for 3D Object Detection via Evidential Learning [63.61283174146648]
本稿では,3次元検出器における鳥の視線表示における明らかな学習損失を利用して,3次元物体検出の不確かさを定量化するためのフレームワークを提案する。
本研究では,これらの不確実性評価の有効性と重要性を,分布外シーンの特定,局所化の不十分な物体の発見,および(偽陰性)検出の欠如について示す。
論文 参考訳(メタデータ) (2024-10-31T13:13:32Z) - Are Dense Labels Always Necessary for 3D Object Detection from Point
Cloud? [72.40353149833109]
現在のSOTA(State-of-the-art)3Dオブジェクト検出法は、トレーニングのために大量の3Dバウンディングボックスアノテーションを必要とすることが多い。
シーン毎に1つの3Dオブジェクトにアノテートするだけでよい,スプリスアノテートされた新しいフレームワークを提案する。
SS3D++法は、代わりに3D検出器のトレーニングを改善し、完全に注釈付けされたシーン生成を確実にする。
論文 参考訳(メタデータ) (2024-03-05T09:38:11Z) - Map-aided annotation for pole base detection [0.0]
本稿では2次元HDマップを用いて,画像中の極状特徴を自動的にアノテートする。
高さ情報がない場合、地図の特徴は地上のポールベースとして表現される。
ポールベースを検出するためにオブジェクト検出器をどのように訓練するかを示す。
論文 参考訳(メタデータ) (2024-03-04T09:23:11Z) - Once Detected, Never Lost: Surpassing Human Performance in Offline LiDAR
based 3D Object Detection [50.959453059206446]
本稿では,高性能なオフラインLiDARによる3Dオブジェクト検出を実現することを目的とする。
まず、経験豊富な人間のアノテータが、トラック中心の視点でオブジェクトに注釈を付けるのを観察する。
従来のオブジェクト中心の視点ではなく,トラック中心の視点で高性能なオフライン検出器を提案する。
論文 参考訳(メタデータ) (2023-04-24T17:59:05Z) - Weakly Supervised Monocular 3D Object Detection using Multi-View
Projection and Direction Consistency [78.76508318592552]
モノクロ3Dオブジェクト検出は、その容易なアプリケーションのための自動駆動において、主流のアプローチとなっている。
現在のほとんどの方法は、トレーニングフェーズで使用される真実をラベル付けするために、まだ3Dポイントのクラウドデータに依存しています。
画像にマークされた2次元ラベルだけでモデルを訓練できる,弱教師付きモノクル3次元オブジェクト検出法を提案する。
論文 参考訳(メタデータ) (2023-03-15T15:14:00Z) - Effect of Annotation Errors on Drone Detection with YOLOv3 [14.519138724931446]
本研究では,物体検出問題に対する異なる種類のアノテーション誤差をシミュレートし,一般的な最先端物体検出装置であるYOLOv3の性能について検討する。
CVPR-2020 Anti-UAV Challengeデータセットにおける必然的アノテーションエラーについても,この方法で検討した。
論文 参考訳(メタデータ) (2020-04-02T15:06:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。