論文の概要: V2X-Sim: A Virtual Collaborative Perception Dataset for Autonomous
Driving
- arxiv url: http://arxiv.org/abs/2202.08449v1
- Date: Thu, 17 Feb 2022 05:14:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-18 15:19:54.624969
- Title: V2X-Sim: A Virtual Collaborative Perception Dataset for Autonomous
Driving
- Title(参考訳): V2X-Sim:自律運転のための仮想協調知覚データセット
- Authors: Yiming Li, Ziyan An, Zixun Wang, Yiqi Zhong, Siheng Chen, Chen Feng
- Abstract要約: V2X(V2X)は、車両と周囲のあらゆる物体の協調を意味する。
V2X-Simデータセットは、自動運転における最初の大規模協調認識データセットである。
- 参考スコア(独自算出の注目度): 26.961213523096948
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vehicle-to-everything (V2X), which denotes the collaboration between a
vehicle and any entity in its surrounding, can fundamentally improve the
perception in self-driving systems. As the individual perception rapidly
advances, collaborative perception has made little progress due to the shortage
of public V2X datasets. In this work, we present the V2X-Sim dataset, the first
public large-scale collaborative perception dataset in autonomous driving.
V2X-Sim provides: 1) well-synchronized recordings from roadside infrastructure
and multiple vehicles at the intersection to enable collaborative perception,
2) multi-modality sensor streams to facilitate multi-modality perception, 3)
diverse well-annotated ground truth to support various downstream tasks
including detection, tracking, and segmentation. We seek to inspire research on
multi-agent multi-modality multi-task perception, and our virtual dataset is
promising to promote the development of collaborative perception before
realistic datasets become widely available.
- Abstract(参考訳): V2X(V2X)は、車両と周囲のあらゆる物体との協調を表すもので、自動運転システムの認識を根本的に改善することができる。
個人の知覚が急速に進歩するにつれて、公共のV2Xデータセットが不足しているため、協調的な知覚はほとんど進歩していない。
本稿では,自動運転における初の大規模共同認識データセットであるv2x-simデータセットを提案する。
v2x-simは
1)道路側インフラと交差点における複数車両の協調的認識を実現するための同期記録
2)マルチモダリティ知覚を容易にするマルチモダリティセンサストリーム
3) 検出,追跡,セグメンテーションなど,さまざまな下流タスクをサポートするための,多種多様な注釈付き地上真実。
我々はマルチエージェントマルチモダリティマルチタスク知覚の研究を刺激し、仮想データセットは現実的なデータセットが広く利用可能になる前に協調的な知覚の開発を促進することを約束している。
関連論文リスト
- Collaborative Perception Datasets in Autonomous Driving: A Survey [0.0]
この論文は様々なデータセットを体系的に分析し、多様性、センサーの設定、品質、公開可用性、下流タスクへの適用性といった側面に基づいて比較する。
データセット開発におけるプライバシとセキュリティの懸念に対処することの重要性は、データ共有とデータセット生成に関して強調されている。
論文 参考訳(メタデータ) (2024-04-22T09:36:17Z) - V2X-Real: a Largs-Scale Dataset for Vehicle-to-Everything Cooperative Perception [22.3955949838171]
本稿では,V2X協調認識開発を促進するために,複数の車両とスマートインフラストラクチャを同時に組み合わせたデータセットを提案する。
V2X-Realは、2つの接続された自動車両と2つのスマートインフラストラクチャを使用して収集される。
データセット全体は33KのLiDARフレームと171Kのカメラデータを含み、非常に困難な都市シナリオでは10のカテゴリに1.2Mの注釈付きバウンディングボックスがある。
論文 参考訳(メタデータ) (2024-03-24T06:30:02Z) - V2V4Real: A Real-world Large-scale Dataset for Vehicle-to-Vehicle
Cooperative Perception [49.7212681947463]
車両から車両への協調認識システム(V2V)は、自動運転産業に革命をもたらす大きな可能性を秘めている。
V2V4Realは、V2V知覚のための世界初の大規模実世界のマルチモーダルデータセットである。
我々のデータセットは、20KのLiDARフレーム、40KのRGBフレーム、240Kの注釈付き5クラスの3Dバウンディングボックス、HDMapからなる410kmの走行領域をカバーしている。
論文 参考訳(メタデータ) (2023-03-14T02:49:20Z) - Generative AI-empowered Simulation for Autonomous Driving in Vehicular
Mixed Reality Metaverses [130.15554653948897]
車両混合現実(MR)メタバースでは、物理的実体と仮想実体の間の距離を克服することができる。
現実的なデータ収集と物理世界からの融合による大規模交通・運転シミュレーションは困難かつコストがかかる。
生成AIを利用して、無制限の条件付きトラフィックを合成し、シミュレーションでデータを駆動する自律運転アーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-02-16T16:54:10Z) - Berlin V2X: A Machine Learning Dataset from Multiple Vehicles and Radio
Access Technologies [56.77079930521082]
我々は,MLに基づく多種多様な研究への道を開くための詳細な測定キャンペーンを実施してきた。
得られたデータセットは、携帯電話(と2つの異なるオペレーター)とサイドリンク無線アクセス技術の両方のために、様々な都市環境にまたがるGPS位置の無線測定を提供する。
私たちは、MLが克服しなければならない課題と、MLが活用できる機能について、データの初期分析を提供しています。
論文 参考訳(メタデータ) (2022-12-20T15:26:39Z) - DOLPHINS: Dataset for Collaborative Perception enabled Harmonious and
Interconnected Self-driving [19.66714697653504]
V2Xネットワークは、自動運転における協調的な認識を可能にしている。
データセットの欠如は、協調認識アルゴリズムの開発を著しく妨げている。
DOLPHINS: cOllaborative Perception を実現するためのデータセットである Harmonious と Inter connected Self-driving をリリースする。
論文 参考訳(メタデータ) (2022-07-15T17:07:07Z) - CoBEVT: Cooperative Bird's Eye View Semantic Segmentation with Sparse
Transformers [36.838065731893735]
CoBEVTは、BEVマップ予測を協調的に生成できる最初の汎用マルチエージェント認識フレームワークである。
CoBEVTは協調的BEVセマンティックセグメンテーションのための最先端性能を実現する。
論文 参考訳(メタデータ) (2022-07-05T17:59:28Z) - V2X-ViT: Vehicle-to-Everything Cooperative Perception with Vision
Transformer [58.71845618090022]
我々は、道路上のエージェント間で情報を融合するために、V2X-ViTという全体論的アテンションモデルを構築した。
V2X-ViTは異質なマルチエージェント自己アテンションとマルチスケールウィンドウ自己アテンションの交互層から構成される。
我々のアプローチを検証するために、我々は大規模なV2X知覚データセットを作成します。
論文 参考訳(メタデータ) (2022-03-20T20:18:25Z) - Euro-PVI: Pedestrian Vehicle Interactions in Dense Urban Centers [126.81938540470847]
歩行者と自転車の軌跡のデータセットであるEuro-PVIを提案する。
本研究では,都市環境におけるエージェント間のマルチモーダル共有潜在空間を表現的に学習する共同推論モデルを開発する。
我々は,エゴ車と歩行者(自転車)の相互作用を正確に予測するために捉えることの重要性を示すnuScenesとEuro-PVIデータセット上での成果を達成した。
論文 参考訳(メタデータ) (2021-06-22T15:40:21Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。