論文の概要: LiDAR-CS Dataset: LiDAR Point Cloud Dataset with Cross-Sensors for 3D
Object Detection
- arxiv url: http://arxiv.org/abs/2301.12515v2
- Date: Tue, 5 Mar 2024 05:54:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-07 03:57:52.361819
- Title: LiDAR-CS Dataset: LiDAR Point Cloud Dataset with Cross-Sensors for 3D
Object Detection
- Title(参考訳): LiDAR-CSデータセット:3Dオブジェクト検出のためのクロスセンサー付きLiDARポイントクラウドデータセット
- Authors: Jin Fang, Dingfu Zhou, Jingjing Zhao, Chenming Wu, Chulin Tang,
Cheng-Zhong Xu and Liangjun Zhang
- Abstract要約: ディープラーニングの手法は注釈付きデータに大きく依存しており、ドメインの一般化の問題に直面することが多い。
LiDAR-CSデータセットは、リアルタイムトラフィックにおける3Dオブジェクト検出の領域におけるセンサ関連ギャップに対処する最初のデータセットである。
- 参考スコア(独自算出の注目度): 36.77084564823707
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Over the past few years, there has been remarkable progress in research on 3D
point clouds and their use in autonomous driving scenarios has become
widespread. However, deep learning methods heavily rely on annotated data and
often face domain generalization issues. Unlike 2D images whose domains usually
pertain to the texture information present in them, the features derived from a
3D point cloud are affected by the distribution of the points. The lack of a 3D
domain adaptation benchmark leads to the common practice of training a model on
one benchmark (e.g. Waymo) and then assessing it on another dataset (e.g.
KITTI). This setting results in two distinct domain gaps: scenarios and
sensors, making it difficult to analyze and evaluate the method accurately. To
tackle this problem, this paper presents LiDAR Dataset with Cross Sensors
(LiDAR-CS Dataset), which contains large-scale annotated LiDAR point cloud
under six groups of different sensors but with the same corresponding
scenarios, captured from hybrid realistic LiDAR simulator. To our knowledge,
LiDAR-CS Dataset is the first dataset that addresses the sensor-related gaps in
the domain of 3D object detection in real traffic. Furthermore, we evaluate and
analyze the performance using various baseline detectors and demonstrated its
potential applications. Project page: https://opendriving.github.io/lidar-cs.
- Abstract(参考訳): ここ数年,3dポイント雲の研究が著しく進展し,その自律運転シナリオにおける利用が広く普及している。
しかし、ディープラーニング手法は注釈付きデータに大きく依存しており、しばしばドメインの一般化問題に直面している。
通常、それらに含まれるテクスチャ情報に関係している2D画像とは異なり、3D点雲から派生した特徴は点の分布に影響される。
3Dドメイン適応ベンチマークの欠如は、あるベンチマーク(Waymoなど)でモデルをトレーニングし、別のデータセット(KITTIなど)で評価する一般的なプラクティスにつながります。
この設定はシナリオとセンサーという2つの異なる領域ギャップをもたらし、その手法を正確に分析し評価することが困難になる。
そこで本研究では,6つの異なるセンサ群の下に,大規模アノテートされたLiDAR点群を含むクロスセンサを用いたLiDARデータセット(LiDAR-CS Dataset)を提案する。
我々の知る限り、LiDAR-CSデータセットは、リアルタイムトラフィックにおける3Dオブジェクト検出の領域におけるセンサ関連ギャップに対処する最初のデータセットである。
さらに, 各種ベースライン検出器を用いて性能評価と解析を行い, その可能性を示した。
プロジェクトページ: https://opendriving.github.io/lidar-cs。
関連論文リスト
- LiOn-XA: Unsupervised Domain Adaptation via LiDAR-Only Cross-Modal Adversarial Training [61.26381389532653]
LiOn-XAは、LiDAR-Only Cross-Modal (X)学習と3D LiDARポイントクラウドセマンティックセマンティックセグメンテーションのためのAdversarial Trainingを組み合わせた、教師なしドメイン適応(UDA)アプローチである。
3つの現実的適応シナリオに関する実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2024-10-21T09:50:17Z) - ParisLuco3D: A high-quality target dataset for domain generalization of LiDAR perception [4.268591926288843]
本稿では,クロスドメイン評価に特化して設計された新しいデータセットParisLuco3Dを提案する。
LiDARセマンティックセグメンテーション、LiDARオブジェクト検出、LiDARトラッキングのためのオンラインベンチマークが提供されている。
論文 参考訳(メタデータ) (2023-10-25T10:45:38Z) - Reviewing 3D Object Detectors in the Context of High-Resolution 3+1D
Radar [0.7279730418361995]
高分解能4D(3+1D)レーダーセンサーは、ディープラーニングに基づくレーダー知覚の研究を行っている。
本研究では,3次元物体検出のためのレーダポイントクラウドで動作するディープラーニングモデルについて検討する。
論文 参考訳(メタデータ) (2023-08-10T10:10:43Z) - MDT3D: Multi-Dataset Training for LiDAR 3D Object Detection
Generalization [3.8243923744440926]
特定の点分布を持つソースデータセットでトレーニングされた3Dオブジェクト検出モデルは、目に見えないデータセットに一般化する上で困難であることが示されている。
我々は、アノテーション付きソースデータセットから利用可能な情報を、MDT3D(Multi-Dataset Training for 3D Object Detection)メソッドで活用する。
トレーニング中にデータセットの混合をどのように管理し、最後にクロスデータセット拡張メソッド、すなわちクロスデータセットオブジェクトインジェクションを導入するかを示します。
論文 参考訳(メタデータ) (2023-08-02T08:20:00Z) - SSDA3D: Semi-supervised Domain Adaptation for 3D Object Detection from
Point Cloud [125.9472454212909]
本稿では,3次元物体検出(SSDA3D)のための半改良型領域適応法を提案する。
SSDA3Dはドメイン間適応ステージとドメイン内一般化ステージを含む。
実験の結果,10%のラベル付きターゲットデータしか持たないSSDA3Dは,100%のターゲットラベルを持つ完全教師付きオラクルモデルを上回ることができることがわかった。
論文 参考訳(メタデータ) (2022-12-06T09:32:44Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - Embracing Single Stride 3D Object Detector with Sparse Transformer [63.179720817019096]
自律走行のためのLiDARを用いた3次元物体検出では、物体サイズと入力シーンサイズとの比が2次元検出の場合に比べて有意に小さい。
多くの3D検出器は2D検出器の一般的な慣習に従っており、点雲の定量化後も特徴マップを分解する。
本稿では,SST(Single-stride Sparse Transformer)を提案する。
論文 参考訳(メタデータ) (2021-12-13T02:12:02Z) - PC-DAN: Point Cloud based Deep Affinity Network for 3D Multi-Object
Tracking (Accepted as an extended abstract in JRDB-ACT Workshop at CVPR21) [68.12101204123422]
点雲は3次元座標における空間データの密集したコンパイルである。
我々は3次元多目的追跡(MOT)のためのPointNetベースのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-03T05:36:39Z) - H3D: Benchmark on Semantic Segmentation of High-Resolution 3D Point
Clouds and textured Meshes from UAV LiDAR and Multi-View-Stereo [4.263987603222371]
本稿では,3つの方法でユニークな3次元データセットを提案する。
ヘシグハイム(ドイツ語: Hessigheim, H3D)は、ドイツの都市。
片手で3次元データ分析の分野での研究を促進するとともに、新しいアプローチの評価とランク付けを目的としている。
論文 参考訳(メタデータ) (2021-02-10T09:33:48Z) - Cirrus: A Long-range Bi-pattern LiDAR Dataset [35.87501129332217]
我々は、自律運転タスクのための新しい長距離二パターンLiDARパブリックデータセットであるCirrusを紹介する。
我々のプラットフォームには高解像度ビデオカメラと250メートルの有効範囲のLiDARセンサーが装備されている。
Cirrusでは、8つのカテゴリのオブジェクトが、有効範囲全体のLiDAR点雲に完全に注釈付けされている。
論文 参考訳(メタデータ) (2020-12-05T03:18:31Z) - Complete & Label: A Domain Adaptation Approach to Semantic Segmentation
of LiDAR Point Clouds [49.47017280475232]
3次元点雲のセマンティックラベリングにおける教師なし領域適応問題について検討する。
セグメンテーションネットワークに渡す前に、基盤となる表面を復元するためにComplete と Label のアプローチを採用する。
回収された3D表面は標準領域として機能し、そこからセマンティックラベルが異なるLiDARセンサー間で転送される。
論文 参考訳(メタデータ) (2020-07-16T17:42:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。