論文の概要: V2V4Real: A Real-world Large-scale Dataset for Vehicle-to-Vehicle
Cooperative Perception
- arxiv url: http://arxiv.org/abs/2303.07601v1
- Date: Tue, 14 Mar 2023 02:49:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-15 16:35:06.019688
- Title: V2V4Real: A Real-world Large-scale Dataset for Vehicle-to-Vehicle
Cooperative Perception
- Title(参考訳): v2v4real:車間協調認識のための実世界の大規模データセット
- Authors: Runsheng Xu, Xin Xia, Jinlong Li, Hanzhao Li, Shuo Zhang, Zhengzhong
Tu, Zonglin Meng, Hao Xiang, Xiaoyu Dong, Rui Song, Hongkai Yu, Bolei Zhou,
Jiaqi Ma
- Abstract要約: 車両と車両(V2V)の協調認識は、自動運転産業に革命をもたらす大きな可能性を秘めている。
V2V4Realは、V2V知覚のための世界初の大規模実世界のマルチモーダルデータセットである。
我々のデータセットは、20KのLiDARフレーム、40KのRGBフレーム、240Kの注釈付き5クラスの3Dバウンディングボックス、HDMapからなる410kmの走行領域をカバーしている。
- 参考スコア(独自算出の注目度): 49.7212681947463
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern perception systems of autonomous vehicles are known to be sensitive to
occlusions and lack the capability of long perceiving range. It has been one of
the key bottlenecks that prevents Level 5 autonomy. Recent research has
demonstrated that the Vehicle-to-Vehicle (V2V) cooperative perception system
has great potential to revolutionize the autonomous driving industry. However,
the lack of a real-world dataset hinders the progress of this field. To
facilitate the development of cooperative perception, we present V2V4Real, the
first large-scale real-world multi-modal dataset for V2V perception. The data
is collected by two vehicles equipped with multi-modal sensors driving together
through diverse scenarios. Our V2V4Real dataset covers a driving area of 410
km, comprising 20K LiDAR frames, 40K RGB frames, 240K annotated 3D bounding
boxes for 5 classes, and HDMaps that cover all the driving routes. V2V4Real
introduces three perception tasks, including cooperative 3D object detection,
cooperative 3D object tracking, and Sim2Real domain adaptation for cooperative
perception. We provide comprehensive benchmarks of recent cooperative
perception algorithms on three tasks. The V2V4Real dataset and codebase can be
found at https://github.com/ucla-mobility/V2V4Real.
- Abstract(参考訳): 現代の自動運転車の認識システムは、閉塞に敏感であり、長い知覚範囲の能力がないことが知られている。
レベル5の自律性を妨げる重要なボトルネックのひとつです。
近年の研究では、V2V協調認識システムが自動運転産業に革命をもたらす可能性があることが示されている。
しかし、現実のデータセットがないため、この分野の進歩は妨げられる。
V2V4Realは、V2V知覚のための世界初の大規模実世界のマルチモーダルデータセットである。
データは、多様なシナリオで駆動するマルチモーダルセンサーを備えた2台の車両によって収集される。
我々のV2V4Realデータセットは、20KのLiDARフレーム、40KのRGBフレーム、5つのクラスのための240Kの注釈付き3Dバウンディングボックス、そしてすべての運転経路をカバーするHDMapからなる410kmの走行領域をカバーしています。
V2V4Realは、協調3次元物体検出、協調3次元物体追跡、協調知覚のためのSim2Realドメイン適応を含む3つの知覚タスクを導入している。
本稿では,最近の協調知覚アルゴリズムの包括的ベンチマークを提案する。
V2V4Realデータセットとコードベースはhttps://github.com/ucla-mobility/V2V4Realにある。
関連論文リスト
- Multi-V2X: A Large Scale Multi-modal Multi-penetration-rate Dataset for Cooperative Perception [3.10770247120758]
本稿では,V2X知覚のための大規模・マルチモーダル・マルチペネレーションレートデータセットであるMulti-V2Xを紹介する。
私たちのMulti-V2Xデータセットは、合計549kのRGBフレーム、146kのLiDARフレーム、4,219kの注釈付き3Dバウンディングボックスで構成されています。
最も高いCAV侵入率は86.21%に達し、通信範囲に31のエージェントがある。
論文 参考訳(メタデータ) (2024-09-08T05:22:00Z) - RoboSense: Large-scale Dataset and Benchmark for Multi-sensor Low-speed Autonomous Driving [62.5830455357187]
本稿では,3種類のセンサ(Camera, LiDAR, Fisheye)をベースとしたマルチモーダルデータ収集プラットフォームを構築する。
RoboSenseという名前の大規模なマルチセンサーデータセットが構築されており、ニアフィールドシーンの理解を容易にする。
RoboSenseは、1133K以上の同期データと1.4Mの3DバウンディングボックスとIDをフル360円のビューに格納し、7.6Kの時間シーケンスに216Kのトラジェクトリを形成する。
論文 参考訳(メタデータ) (2024-08-28T03:17:40Z) - V2X-Real: a Largs-Scale Dataset for Vehicle-to-Everything Cooperative Perception [22.3955949838171]
本稿では,V2X協調認識開発を促進するために,複数の車両とスマートインフラストラクチャを同時に組み合わせたデータセットを提案する。
V2X-Realは、2つの接続された自動車両と2つのスマートインフラストラクチャを使用して収集される。
データセット全体は33KのLiDARフレームと171Kのカメラデータを含み、非常に困難な都市シナリオでは10のカテゴリに1.2Mの注釈付きバウンディングボックスがある。
論文 参考訳(メタデータ) (2024-03-24T06:30:02Z) - HoloVIC: Large-scale Dataset and Benchmark for Multi-Sensor Holographic Intersection and Vehicle-Infrastructure Cooperative [23.293162454592544]
複数レイアウトのホログラフィック交差点を構築し,HoloVICと呼ばれる大規模多センサのホログラフィック車両・赤外線協調データセットを構築した。
私たちのデータセットには3種類のセンサー(Camera, Lidar, Fisheye)が含まれています。
論文 参考訳(メタデータ) (2024-03-05T04:08:19Z) - DeepAccident: A Motion and Accident Prediction Benchmark for V2X
Autonomous Driving [76.29141888408265]
本研究では,現実の運転において頻繁に発生する多様な事故シナリオを含む大規模データセットを提案する。
提案したDeepAccidentデータセットには57Kの注釈付きフレームと285Kの注釈付きサンプルが含まれており、これは大規模なnuScenesデータセットの約7倍である。
論文 参考訳(メタデータ) (2023-04-03T17:37:00Z) - Argoverse 2: Next Generation Datasets for Self-Driving Perception and
Forecasting [64.7364925689825]
Argoverse 2(AV2)は、自動運転分野の研究の知覚と予測のための3つのデータセットの集合である。
Lidarデータセットには、ラベルなしのLidar点雲とマップ整列ポーズの2万のシーケンスが含まれている。
Motion Forecastingデータセットには、各ローカルシーンにおける自動運転車と他のアクター間の興味深い、挑戦的なインタラクションのために採掘された25万のシナリオが含まれている。
論文 参考訳(メタデータ) (2023-01-02T00:36:22Z) - DOLPHINS: Dataset for Collaborative Perception enabled Harmonious and
Interconnected Self-driving [19.66714697653504]
V2Xネットワークは、自動運転における協調的な認識を可能にしている。
データセットの欠如は、協調認識アルゴリズムの開発を著しく妨げている。
DOLPHINS: cOllaborative Perception を実現するためのデータセットである Harmonious と Inter connected Self-driving をリリースする。
論文 参考訳(メタデータ) (2022-07-15T17:07:07Z) - V2X-ViT: Vehicle-to-Everything Cooperative Perception with Vision
Transformer [58.71845618090022]
我々は、道路上のエージェント間で情報を融合するために、V2X-ViTという全体論的アテンションモデルを構築した。
V2X-ViTは異質なマルチエージェント自己アテンションとマルチスケールウィンドウ自己アテンションの交互層から構成される。
我々のアプローチを検証するために、我々は大規模なV2X知覚データセットを作成します。
論文 参考訳(メタデータ) (2022-03-20T20:18:25Z) - V2X-Sim: A Virtual Collaborative Perception Dataset for Autonomous
Driving [26.961213523096948]
V2X(V2X)は、車両と周囲のあらゆる物体の協調を意味する。
V2X-Simデータセットは、自動運転における最初の大規模協調認識データセットである。
論文 参考訳(メタデータ) (2022-02-17T05:14:02Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。