論文の概要: IDD-3D: Indian Driving Dataset for 3D Unstructured Road Scenes
- arxiv url: http://arxiv.org/abs/2210.12878v1
- Date: Sun, 23 Oct 2022 23:03:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 17:27:24.641081
- Title: IDD-3D: Indian Driving Dataset for 3D Unstructured Road Scenes
- Title(参考訳): IDD-3D:インドにおける3D非構造道路シーンの運転データセット
- Authors: Shubham Dokania, A.H. Abdul Hafez, Anbumani Subramanian, Manmohan
Chandraker, C.V. Jawahar
- Abstract要約: デプロイ可能なディープラーニングアーキテクチャの準備とトレーニングには、さまざまなトラフィックシナリオに適したモデルが必要である。
インドなどいくつかの発展途上国で見られる非構造的で複雑な運転レイアウトは、これらのモデルに挑戦している。
我々は、複数のカメラと12kの注釈付き駆動LiDARフレームを備えたLiDARセンサーのマルチモーダルデータからなる新しいデータセットIDD-3Dを構築した。
- 参考スコア(独自算出の注目度): 79.18349050238413
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous driving and assistance systems rely on annotated data from traffic
and road scenarios to model and learn the various object relations in complex
real-world scenarios. Preparation and training of deploy-able deep learning
architectures require the models to be suited to different traffic scenarios
and adapt to different situations. Currently, existing datasets, while
large-scale, lack such diversities and are geographically biased towards mainly
developed cities. An unstructured and complex driving layout found in several
developing countries such as India poses a challenge to these models due to the
sheer degree of variations in the object types, densities, and locations. To
facilitate better research toward accommodating such scenarios, we build a new
dataset, IDD-3D, which consists of multi-modal data from multiple cameras and
LiDAR sensors with 12k annotated driving LiDAR frames across various traffic
scenarios. We discuss the need for this dataset through statistical comparisons
with existing datasets and highlight benchmarks on standard 3D object detection
and tracking tasks in complex layouts. Code and data available at
https://github.com/shubham1810/idd3d_kit.git
- Abstract(参考訳): 自動運転と補助システムは、複雑な現実世界のシナリオで様々な対象関係をモデル化し学習するために、交通シナリオと道路シナリオからの注釈付きデータに依存している。
デプロイ可能なディープラーニングアーキテクチャの準備とトレーニングには、モデルが異なるトラフィックシナリオに適合し、異なる状況に適応する必要がある。
現在、既存のデータセットは大規模であるが、このような多様性がなく、地理的に主に開発されている都市に偏っている。
インドなどいくつかの発展途上国で見られる非構造的で複雑な運転レイアウトは、物体の種類、密度、位置の多様さから、これらのモデルに挑戦している。
複数のカメラと12kのアノテートされたLiDARフレームを様々な交通シナリオで駆動するLiDARセンサのマルチモーダルデータからなる新しいデータセットIDD-3Dを構築した。
既存のデータセットとの統計的比較と、複雑なレイアウトにおける標準的な3dオブジェクト検出とトラッキングタスクのベンチマークのハイライトを通じて、このデータセットの必要性について論じる。
コードとデータはhttps://github.com/shubham1810/idd3d_kit.gitで入手できる。
関連論文リスト
- MDT3D: Multi-Dataset Training for LiDAR 3D Object Detection
Generalization [3.8243923744440926]
特定の点分布を持つソースデータセットでトレーニングされた3Dオブジェクト検出モデルは、目に見えないデータセットに一般化する上で困難であることが示されている。
我々は、アノテーション付きソースデータセットから利用可能な情報を、MDT3D(Multi-Dataset Training for 3D Object Detection)メソッドで活用する。
トレーニング中にデータセットの混合をどのように管理し、最後にクロスデータセット拡張メソッド、すなわちクロスデータセットオブジェクトインジェクションを導入するかを示します。
論文 参考訳(メタデータ) (2023-08-02T08:20:00Z) - UniG3D: A Unified 3D Object Generation Dataset [75.49544172927749]
UniG3Dは、ShapeNetデータセット上に普遍的なデータ変換パイプラインを用いて構築された、統一された3Dオブジェクト生成データセットである。
このパイプラインは、各生の3Dモデルを包括的なマルチモーダルデータ表現に変換する。
データセットのデータソースの選択は、そのスケールと品質に基づいています。
論文 参考訳(メタデータ) (2023-06-19T07:03:45Z) - LiDAR-CS Dataset: LiDAR Point Cloud Dataset with Cross-Sensors for 3D
Object Detection [36.77084564823707]
ディープラーニングの手法は注釈付きデータに大きく依存しており、ドメインの一般化の問題に直面することが多い。
LiDAR-CSデータセットは、リアルタイムトラフィックにおける3Dオブジェクト検出の領域におけるセンサ関連ギャップに対処する最初のデータセットである。
論文 参考訳(メタデータ) (2023-01-29T19:10:35Z) - Argoverse 2: Next Generation Datasets for Self-Driving Perception and
Forecasting [64.7364925689825]
Argoverse 2(AV2)は、自動運転分野の研究の知覚と予測のための3つのデータセットの集合である。
Lidarデータセットには、ラベルなしのLidar点雲とマップ整列ポーズの2万のシーケンスが含まれている。
Motion Forecastingデータセットには、各ローカルシーンにおける自動運転車と他のアクター間の興味深い、挑戦的なインタラクションのために採掘された25万のシナリオが含まれている。
論文 参考訳(メタデータ) (2023-01-02T00:36:22Z) - DOLPHINS: Dataset for Collaborative Perception enabled Harmonious and
Interconnected Self-driving [19.66714697653504]
V2Xネットワークは、自動運転における協調的な認識を可能にしている。
データセットの欠如は、協調認識アルゴリズムの開発を著しく妨げている。
DOLPHINS: cOllaborative Perception を実現するためのデータセットである Harmonious と Inter connected Self-driving をリリースする。
論文 参考訳(メタデータ) (2022-07-15T17:07:07Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - RELLIS-3D Dataset: Data, Benchmarks and Analysis [16.803548871633957]
RELLIS-3Dはオフロード環境で収集されたマルチモーダルデータセットである。
データはテキサスA&M大学のRellis Campusで収集されました。
論文 参考訳(メタデータ) (2020-11-17T18:28:01Z) - Train in Germany, Test in The USA: Making 3D Object Detectors Generalize [59.455225176042404]
ディープラーニングにより、LiDARやステレオカメラデータなどの3Dオブジェクト検出精度が大幅に向上した。
自動運転のためのほとんどのデータセットは、1つの国内の都市の狭い部分で収集される。
本稿では,あるデータセットから別のデータセットに3Dオブジェクト検出器を適応させる作業について考察する。
論文 参考訳(メタデータ) (2020-05-17T00:56:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。