論文の概要: DAIR-V2X: A Large-Scale Dataset for Vehicle-Infrastructure Cooperative
3D Object Detection
- arxiv url: http://arxiv.org/abs/2204.05575v1
- Date: Tue, 12 Apr 2022 07:13:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-14 00:02:31.624723
- Title: DAIR-V2X: A Large-Scale Dataset for Vehicle-Infrastructure Cooperative
3D Object Detection
- Title(参考訳): DAIR-V2X:自動車・インフラ協調3次元物体検出のための大規模データセット
- Authors: Haibao Yu, Yizhen Luo, Mao Shu, Yiyi Huo, Zebang Yang, Yifeng Shi,
Zhenglong Guo, Hanyu Li, Xing Hu, Jirui Yuan, Zaiqing Nie
- Abstract要約: DAIR-V2Xは、自動車・インフラ協調自律運転の現実シナリオから得られた、最初の大規模でマルチモードのマルチビューデータセットである。
DAIR-V2Xは71254のLiDARフレームと71254のカメラフレームで構成される。
- 参考スコア(独自算出の注目度): 8.681912341444901
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Autonomous driving faces great safety challenges for a lack of global
perspective and the limitation of long-range perception capabilities. It has
been widely agreed that vehicle-infrastructure cooperation is required to
achieve Level 5 autonomy. However, there is still NO dataset from real
scenarios available for computer vision researchers to work on
vehicle-infrastructure cooperation-related problems. To accelerate computer
vision research and innovation for Vehicle-Infrastructure Cooperative
Autonomous Driving (VICAD), we release DAIR-V2X Dataset, which is the first
large-scale, multi-modality, multi-view dataset from real scenarios for VICAD.
DAIR-V2X comprises 71254 LiDAR frames and 71254 Camera frames, and all frames
are captured from real scenes with 3D annotations. The Vehicle-Infrastructure
Cooperative 3D Object Detection problem (VIC3D) is introduced, formulating the
problem of collaboratively locating and identifying 3D objects using sensory
inputs from both vehicle and infrastructure. In addition to solving traditional
3D object detection problems, the solution of VIC3D needs to consider the
temporal asynchrony problem between vehicle and infrastructure sensors and the
data transmission cost between them. Furthermore, we propose Time Compensation
Late Fusion (TCLF), a late fusion framework for the VIC3D task as a benchmark
based on DAIR-V2X. Find data, code, and more up-to-date information at
https://thudair.baai.ac.cn/index and https://github.com/AIR-THU/DAIR-V2X.
- Abstract(参考訳): 自動運転は、グローバル視点の欠如と長距離知覚能力の限界のために、大きな安全性の課題に直面している。
レベル5の自律を達成するには車両とインフラの協力が必要であると広く合意されている。
しかし、コンピュータビジョン研究者が自動車インフラ協力問題に取り組むために利用可能な実際のシナリオからのデータセットはまだ存在しない。
自動車・インフラ協調自律運転(VICAD)のコンピュータビジョン研究と革新を加速するために,我々は,VICADの実際のシナリオから,最初の大規模かつ多目的なマルチビューデータセットであるDAIR-V2Xデータセットをリリースする。
DAIR-V2Xは71254のLiDARフレームと71254のカメラフレームで構成される。
車両とインフラの両方からのセンサ入力を用いて3次元物体を協調的に位置決めし識別する問題を定式化したVIC3D(Vine-Infrastructure Cooperative 3D Object Detection problem)が導入された。
従来の3Dオブジェクト検出問題に加えて、VIC3Dの解決策は、車両とインフラセンサー間の時間的非同期問題とそれらの間のデータ伝送コストを考慮する必要がある。
さらに, DAIR-V2X に基づくベンチマークとして, VIC3D タスクの遅延融合フレームワークである Time Compensation Late Fusion (TCLF) を提案する。
https://thudair.baai.ac.cn/index and https://github.com/AIR-THU/DAIR-V2X
関連論文リスト
- Multi-V2X: A Large Scale Multi-modal Multi-penetration-rate Dataset for Cooperative Perception [3.10770247120758]
本稿では,V2X知覚のための大規模・マルチモーダル・マルチペネレーションレートデータセットであるMulti-V2Xを紹介する。
私たちのMulti-V2Xデータセットは、合計549kのRGBフレーム、146kのLiDARフレーム、4,219kの注釈付き3Dバウンディングボックスで構成されています。
最も高いCAV侵入率は86.21%に達し、通信範囲に31のエージェントがある。
論文 参考訳(メタデータ) (2024-09-08T05:22:00Z) - InScope: A New Real-world 3D Infrastructure-side Collaborative Perception Dataset for Open Traffic Scenarios [13.821143687548494]
本稿では,新しい3次元インフラ側協調認識データセットについて紹介する。
InScopeは303の追跡軌道と187,787個の3D境界ボックスで20日間の捕獲期間をカプセル化している。
論文 参考訳(メタデータ) (2024-07-31T13:11:14Z) - EMIFF: Enhanced Multi-scale Image Feature Fusion for
Vehicle-Infrastructure Cooperative 3D Object Detection [23.32916754209488]
車両・インフラ協力型3D(VIC3D)物体検出における2つの大きな課題が続いている。
VIC3Dタスクのための新しいカメラベースの3D検出フレームワーク、EMIFF(Multiscale Image Feature Fusion)を提案する。
実験により、EMIFFはDAIR-V2X-Cデータセット上でSOTAを達成し、従来のアーリーフュージョン法とレイトフュージョン法を同等の伝送コストで大幅に上回った。
論文 参考訳(メタデータ) (2024-02-23T11:35:48Z) - V2V4Real: A Real-world Large-scale Dataset for Vehicle-to-Vehicle
Cooperative Perception [49.7212681947463]
車両から車両への協調認識システム(V2V)は、自動運転産業に革命をもたらす大きな可能性を秘めている。
V2V4Realは、V2V知覚のための世界初の大規模実世界のマルチモーダルデータセットである。
我々のデータセットは、20KのLiDARフレーム、40KのRGBフレーム、240Kの注釈付き5クラスの3Dバウンディングボックス、HDMapからなる410kmの走行領域をカバーしている。
論文 参考訳(メタデータ) (2023-03-14T02:49:20Z) - Argoverse 2: Next Generation Datasets for Self-Driving Perception and
Forecasting [64.7364925689825]
Argoverse 2(AV2)は、自動運転分野の研究の知覚と予測のための3つのデータセットの集合である。
Lidarデータセットには、ラベルなしのLidar点雲とマップ整列ポーズの2万のシーケンスが含まれている。
Motion Forecastingデータセットには、各ローカルシーンにおける自動運転車と他のアクター間の興味深い、挑戦的なインタラクションのために採掘された25万のシナリオが含まれている。
論文 参考訳(メタデータ) (2023-01-02T00:36:22Z) - IDD-3D: Indian Driving Dataset for 3D Unstructured Road Scenes [79.18349050238413]
デプロイ可能なディープラーニングアーキテクチャの準備とトレーニングには、さまざまなトラフィックシナリオに適したモデルが必要である。
インドなどいくつかの発展途上国で見られる非構造的で複雑な運転レイアウトは、これらのモデルに挑戦している。
我々は、複数のカメラと12kの注釈付き駆動LiDARフレームを備えたLiDARセンサーのマルチモーダルデータからなる新しいデータセットIDD-3Dを構築した。
論文 参考訳(メタデータ) (2022-10-23T23:03:17Z) - DOLPHINS: Dataset for Collaborative Perception enabled Harmonious and
Interconnected Self-driving [19.66714697653504]
V2Xネットワークは、自動運転における協調的な認識を可能にしている。
データセットの欠如は、協調認識アルゴリズムの開発を著しく妨げている。
DOLPHINS: cOllaborative Perception を実現するためのデータセットである Harmonious と Inter connected Self-driving をリリースする。
論文 参考訳(メタデータ) (2022-07-15T17:07:07Z) - V2X-ViT: Vehicle-to-Everything Cooperative Perception with Vision
Transformer [58.71845618090022]
我々は、道路上のエージェント間で情報を融合するために、V2X-ViTという全体論的アテンションモデルを構築した。
V2X-ViTは異質なマルチエージェント自己アテンションとマルチスケールウィンドウ自己アテンションの交互層から構成される。
我々のアプローチを検証するために、我々は大規模なV2X知覚データセットを作成します。
論文 参考訳(メタデータ) (2022-03-20T20:18:25Z) - PC-DAN: Point Cloud based Deep Affinity Network for 3D Multi-Object
Tracking (Accepted as an extended abstract in JRDB-ACT Workshop at CVPR21) [68.12101204123422]
点雲は3次元座標における空間データの密集したコンパイルである。
我々は3次元多目的追跡(MOT)のためのPointNetベースのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-03T05:36:39Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。