論文の概要: Addressing Data Annotation Challenges in Multiple Sensors: A Solution for Scania Collected Datasets
- arxiv url: http://arxiv.org/abs/2403.18649v1
- Date: Wed, 27 Mar 2024 14:56:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-28 16:29:03.420040
- Title: Addressing Data Annotation Challenges in Multiple Sensors: A Solution for Scania Collected Datasets
- Title(参考訳): 複数センサにおけるデータアノテーション問題への対処--Scania Collected Datasetの解法
- Authors: Ajinkya Khoche, Aron Asefaw, Alejandro Gonzalez, Bogdan Timus, Sina Sharif Mansouri, Patric Jensfelt,
- Abstract要約: 自動運転車のデータアノテーションは、ディープニューラルネットワーク(DNN)ベースのモデルの開発における重要なステップである。
この記事では、主にScaniaが収集したデータセットのコンテキスト内で、この問題に対処することに焦点を当てます。
提案手法は,アノテートされた物体の軌跡を入力とし,移動水平推定(MHE)を用いてその速度を頑健に推定する。
- 参考スコア(独自算出の注目度): 41.68378073302622
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data annotation in autonomous vehicles is a critical step in the development of Deep Neural Network (DNN) based models or the performance evaluation of the perception system. This often takes the form of adding 3D bounding boxes on time-sequential and registered series of point-sets captured from active sensors like Light Detection and Ranging (LiDAR) and Radio Detection and Ranging (RADAR). When annotating multiple active sensors, there is a need to motion compensate and translate the points to a consistent coordinate frame and timestamp respectively. However, highly dynamic objects pose a unique challenge, as they can appear at different timestamps in each sensor's data. Without knowing the speed of the objects, their position appears to be different in different sensor outputs. Thus, even after motion compensation, highly dynamic objects are not matched from multiple sensors in the same frame, and human annotators struggle to add unique bounding boxes that capture all objects. This article focuses on addressing this challenge, primarily within the context of Scania collected datasets. The proposed solution takes a track of an annotated object as input and uses the Moving Horizon Estimation (MHE) to robustly estimate its speed. The estimated speed profile is utilized to correct the position of the annotated box and add boxes to object clusters missed by the original annotation.
- Abstract(参考訳): 自動運転車のデータアノテーションは、ディープニューラルネットワーク(DNN)ベースのモデルの開発や、知覚システムの性能評価において重要なステップである。
この方式は、光検出・ランドング(LiDAR)や無線検出・ランドング(RADAR)といったアクティブセンサーから取得した、時系列および登録された一連の点集合に3Dバウンディングボックスを追加する形式をとることが多い。
複数のアクティブセンサーをアノテートする場合、ポイントをそれぞれ一貫した座標フレームとタイムスタンプに変換する必要がある。
しかし、非常にダイナミックなオブジェクトは、各センサーのデータに異なるタイムスタンプに現れるため、ユニークな課題となる。
物体の速度がわからなければ、その位置は異なるセンサー出力で異なるように見える。
したがって、運動補償の後にも、非常にダイナミックな物体は同一フレーム内の複数のセンサーと一致せず、人間のアノテータは、全ての物体をキャプチャする独自のバウンディングボックスを追加するのに苦労する。
この記事では、主にScaniaが収集したデータセットのコンテキスト内で、この問題に対処することに焦点を当てます。
提案手法は,アノテートされた物体の軌跡を入力とし,移動水平推定(MHE)を用いてその速度を頑健に推定する。
推定速度プロファイルを用いてアノテートボックスの位置を補正し、元のアノテーションで見逃されたオブジェクトクラスタにボックスを追加する。
関連論文リスト
- STCMOT: Spatio-Temporal Cohesion Learning for UAV-Based Multiple Object Tracking [13.269416985959404]
無人航空機(UAV)ビデオにおける複数物体追跡(MOT)は、コンピュータビジョンにおける多様な用途において重要である。
時空間結合型多目的追跡フレームワーク(STCMOT)を提案する。
歴史的埋め込み機能を用いて,ReIDの表現と検出機能を逐次的にモデル化する。
我々のフレームワークはMOTAとIDF1メトリクスで新しい最先端のパフォーマンスを設定します。
論文 参考訳(メタデータ) (2024-09-17T14:34:18Z) - Detection Is Tracking: Point Cloud Multi-Sweep Deep Learning Models Revisited [0.0]
自律運転では、ライダー測定は通常、ディープラーニングモデルによって実現された「仮想センサー」を介して行われる。
本稿では,このような入力には時間的情報が含まれており,仮想センサの出力には時間的情報も含むべきであると論じる。
本稿では,MULti-Sweep PAired Detector (MULSPAD)と呼ばれる深層学習モデルを提案する。
論文 参考訳(メタデータ) (2024-02-24T08:07:48Z) - ByteTrackV2: 2D and 3D Multi-Object Tracking by Associating Every
Detection Box [81.45219802386444]
マルチオブジェクトトラッキング(MOT)は、ビデオフレーム間のオブジェクトのバウンディングボックスとIDを推定することを目的としている。
低スコア検出ボックス内の真のオブジェクトをマイニングするための階層型データアソシエーション戦略を提案する。
3次元のシナリオでは、トラッカーが世界座標の物体速度を予測するのがずっと簡単である。
論文 参考訳(メタデータ) (2023-03-27T15:35:21Z) - Tackling Clutter in Radar Data -- Label Generation and Detection Using
PointNet++ [10.113809521379022]
クラッタを識別するための2つの新しいニューラルネットワーク構成を提案する。
入力データ、ネットワークアーキテクチャ、トレーニング設定は、このタスクのために特別に調整される。
オブジェクトアノテーションで既存のデータに適用し、そのコードをリリースすることで、我々は、初めて利用可能なレーダークラッタデータセットを効果的に作成する。
論文 参考訳(メタデータ) (2023-03-16T17:46:32Z) - CXTrack: Improving 3D Point Cloud Tracking with Contextual Information [59.55870742072618]
3Dオブジェクトトラッキングは、自律運転など、多くのアプリケーションにおいて重要な役割を果たす。
CXTrackは3次元オブジェクト追跡のためのトランスフォーマーベースのネットワークである。
CXTrackは29FPSで動作しながら最先端のトラッキング性能を実現する。
論文 参考訳(メタデータ) (2022-11-12T11:29:01Z) - CFTrack: Center-based Radar and Camera Fusion for 3D Multi-Object
Tracking [9.62721286522053]
本稿では,レーダとカメラセンサの融合に基づく共同物体検出と追跡のためのエンドツーエンドネットワークを提案する。
提案手法では,物体検出に中心型レーダカメラ融合アルゴリズムを用い,物体関連にグリーディアルゴリズムを用いる。
提案手法は,20.0AMOTAを達成し,ベンチマークにおける視覚ベースの3Dトラッキング手法よりも優れる,挑戦的なnuScenesデータセット上で評価する。
論文 参考訳(メタデータ) (2021-07-11T23:56:53Z) - On the Role of Sensor Fusion for Object Detection in Future Vehicular
Networks [25.838878314196375]
異なるセンサの組み合わせが車両の移動・運転環境の検出にどのように影響するかを評価します。
最終的な目標は、チャネルに分散するデータの量を最小限に抑える最適な設定を特定することです。
論文 参考訳(メタデータ) (2021-04-23T18:58:37Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - DS-Net: Dynamic Spatiotemporal Network for Video Salient Object
Detection [78.04869214450963]
時間情報と空間情報のより効果的な融合のための新しい動的時空間ネットワーク(DSNet)を提案する。
提案手法は最先端アルゴリズムよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-12-09T06:42:30Z) - siaNMS: Non-Maximum Suppression with Siamese Networks for Multi-Camera
3D Object Detection [65.03384167873564]
サイムズネットワークは、よく知られた3Dオブジェクト検出器アプローチのパイプラインに統合される。
アソシエーションはオブジェクトの3Dボックスレグレッションを強化するために利用される。
nuScenesデータセットの実験的評価は,提案手法が従来のNMS手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2020-02-19T15:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。