論文の概要: V2X-Seq: A Large-Scale Sequential Dataset for Vehicle-Infrastructure
Cooperative Perception and Forecasting
- arxiv url: http://arxiv.org/abs/2305.05938v1
- Date: Wed, 10 May 2023 07:20:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-11 14:08:17.671095
- Title: V2X-Seq: A Large-Scale Sequential Dataset for Vehicle-Infrastructure
Cooperative Perception and Forecasting
- Title(参考訳): v2x-seq:車両-インフラ協調認識と予測のための大規模シーケンシャルデータセット
- Authors: Haibao Yu, Wenxian Yang, Hongzhi Ruan, Zhenwei Yang, Yingjuan Tang, Xu
Gao, Xin Hao, Yifeng Shi, Yifeng Pan, Ning Sun, Juan Song, Jirui Yuan, Ping
Luo, Zaiqing Nie
- Abstract要約: 最初の大規模シーケンシャルV2XデータセットであるV2X-Seqを紹介する。
V2X-Seqは、逐次知覚データセットと軌道予測データセットの2つの部分から構成される。
V2X-Seqに基づいて,自動車・インフラ協調運転(VIC)のための3つの新しいタスクを導入する。
- 参考スコア(独自算出の注目度): 19.28358736418664
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Utilizing infrastructure and vehicle-side information to track and forecast
the behaviors of surrounding traffic participants can significantly improve
decision-making and safety in autonomous driving. However, the lack of
real-world sequential datasets limits research in this area. To address this
issue, we introduce V2X-Seq, the first large-scale sequential V2X dataset,
which includes data frames, trajectories, vector maps, and traffic lights
captured from natural scenery. V2X-Seq comprises two parts: the sequential
perception dataset, which includes more than 15,000 frames captured from 95
scenarios, and the trajectory forecasting dataset, which contains about 80,000
infrastructure-view scenarios, 80,000 vehicle-view scenarios, and 50,000
cooperative-view scenarios captured from 28 intersections' areas, covering 672
hours of data. Based on V2X-Seq, we introduce three new tasks for
vehicle-infrastructure cooperative (VIC) autonomous driving: VIC3D Tracking,
Online-VIC Forecasting, and Offline-VIC Forecasting. We also provide benchmarks
for the introduced tasks. Find data, code, and more up-to-date information at
\href{https://github.com/AIR-THU/DAIR-V2X-Seq}{https://github.com/AIR-THU/DAIR-V2X-Seq}.
- Abstract(参考訳): インフラと車両サイドの情報を利用して周囲の交通参加者の行動を追跡し予測することは、自動運転における意思決定と安全性を大幅に改善することができる。
しかし、実世界のシーケンシャルデータセットがないため、この分野の研究は限られている。
この問題に対処するために,v2x-seqというデータフレーム,軌道,ベクトルマップ,自然景観からキャプチャされた交通信号を含む,最初の大規模シーケンシャルデータセットを紹介する。
V2X-Seqは、95のシナリオから15,000フレーム以上をキャプチャしたシーケンシャルな知覚データセットと、約80,000のインフラストラクチャビューシナリオ、80,000の車両ビューシナリオ、28の交差点のエリアからキャプチャされた5万の協調ビューシナリオを含むトラジェクティブな予測データセットの2つで構成されている。
V2X-Seqをベースとして,VIC3Dトラッキング,オンラインVIC予測,オフラインVIC予測という,VIC自動運転のための新しい3つのタスクを紹介した。
導入されたタスクのベンチマークも提供します。
データ、コード、最新の情報は、 \href{https://github.com/AIR-THU/DAIR-V2X-Seq}{https://github.com/AIR-THU/DAIR-V2X-Seq} で見つける。
関連論文リスト
- Multi-V2X: A Large Scale Multi-modal Multi-penetration-rate Dataset for Cooperative Perception [3.10770247120758]
本稿では,V2X知覚のための大規模・マルチモーダル・マルチペネレーションレートデータセットであるMulti-V2Xを紹介する。
私たちのMulti-V2Xデータセットは、合計549kのRGBフレーム、146kのLiDARフレーム、4,219kの注釈付き3Dバウンディングボックスで構成されています。
最も高いCAV侵入率は86.21%に達し、通信範囲に31のエージェントがある。
論文 参考訳(メタデータ) (2024-09-08T05:22:00Z) - Learning Cooperative Trajectory Representations for Motion Forecasting [4.380073528690906]
協調情報から動きと相互作用の特徴を利用するための予測指向表現パラダイムを提案する。
V2X-Graphは、協調動作予測のための解釈可能かつエンドツーエンドな特徴量融合を実現するための代表的なフレームワークである。
車両から全車まで(V2X)のシナリオを更に評価するため,V2X-Traj を用いたV2X運動予測データセットを構築した。
論文 参考訳(メタデータ) (2023-11-01T08:53:05Z) - NuScenes-QA: A Multi-modal Visual Question Answering Benchmark for
Autonomous Driving Scenario [77.14723238359318]
NuScenesQAは、自動運転シナリオにおけるVQAの最初のベンチマークであり、34Kの視覚シーンと460Kの質問応答ペアを含んでいる。
既存の3D検出アノテーションを利用してシーングラフと質問テンプレートを手動で作成する。
先進的な3D検出とVQA技術を用いた一連のベースラインを開発する。
論文 参考訳(メタデータ) (2023-05-24T07:40:50Z) - DeepAccident: A Motion and Accident Prediction Benchmark for V2X
Autonomous Driving [76.29141888408265]
本研究では,現実の運転において頻繁に発生する多様な事故シナリオを含む大規模データセットを提案する。
提案したDeepAccidentデータセットには57Kの注釈付きフレームと285Kの注釈付きサンプルが含まれており、これは大規模なnuScenesデータセットの約7倍である。
論文 参考訳(メタデータ) (2023-04-03T17:37:00Z) - V2V4Real: A Real-world Large-scale Dataset for Vehicle-to-Vehicle
Cooperative Perception [49.7212681947463]
車両から車両への協調認識システム(V2V)は、自動運転産業に革命をもたらす大きな可能性を秘めている。
V2V4Realは、V2V知覚のための世界初の大規模実世界のマルチモーダルデータセットである。
我々のデータセットは、20KのLiDARフレーム、40KのRGBフレーム、240Kの注釈付き5クラスの3Dバウンディングボックス、HDMapからなる410kmの走行領域をカバーしている。
論文 参考訳(メタデータ) (2023-03-14T02:49:20Z) - Traffic Scene Parsing through the TSP6K Dataset [109.69836680564616]
高品質なピクセルレベルのアノテーションとインスタンスレベルのアノテーションを備えた,TSP6Kと呼ばれる特殊なトラフィック監視データセットを導入する。
データセットは、既存の運転シーンの何倍ものトラフィック参加者を持つ、より混雑した交通シーンをキャプチャする。
交通シーンの異なるセマンティック領域の詳細を復元するシーン解析のためのディテールリフィニングデコーダを提案する。
論文 参考訳(メタデータ) (2023-03-06T02:05:14Z) - Argoverse 2: Next Generation Datasets for Self-Driving Perception and
Forecasting [64.7364925689825]
Argoverse 2(AV2)は、自動運転分野の研究の知覚と予測のための3つのデータセットの集合である。
Lidarデータセットには、ラベルなしのLidar点雲とマップ整列ポーズの2万のシーケンスが含まれている。
Motion Forecastingデータセットには、各ローカルシーンにおける自動運転車と他のアクター間の興味深い、挑戦的なインタラクションのために採掘された25万のシナリオが含まれている。
論文 参考訳(メタデータ) (2023-01-02T00:36:22Z) - DAIR-V2X: A Large-Scale Dataset for Vehicle-Infrastructure Cooperative
3D Object Detection [8.681912341444901]
DAIR-V2Xは、自動車・インフラ協調自律運転の現実シナリオから得られた、最初の大規模でマルチモードのマルチビューデータセットである。
DAIR-V2Xは71254のLiDARフレームと71254のカメラフレームで構成される。
論文 参考訳(メタデータ) (2022-04-12T07:13:33Z) - V2X-ViT: Vehicle-to-Everything Cooperative Perception with Vision
Transformer [58.71845618090022]
我々は、道路上のエージェント間で情報を融合するために、V2X-ViTという全体論的アテンションモデルを構築した。
V2X-ViTは異質なマルチエージェント自己アテンションとマルチスケールウィンドウ自己アテンションの交互層から構成される。
我々のアプローチを検証するために、我々は大規模なV2X知覚データセットを作成します。
論文 参考訳(メタデータ) (2022-03-20T20:18:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。