論文の概要: AGC-Drive: A Large-Scale Dataset for Real-World Aerial-Ground Collaboration in Driving Scenarios
- arxiv url: http://arxiv.org/abs/2506.16371v1
- Date: Thu, 19 Jun 2025 14:48:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:05.121967
- Title: AGC-Drive: A Large-Scale Dataset for Real-World Aerial-Ground Collaboration in Driving Scenarios
- Title(参考訳): AGC-Drive: 実世界のエアリアルグラウンドコラボレーションのための大規模データセット
- Authors: Yunhao Hou, Bochao Zou, Min Zhang, Ran Chen, Shangdong Yang, Yanmei Zhang, Junbao Zhuo, Siheng Chen, Jiansheng Chen, Huimin Ma,
- Abstract要約: AGC-DriveはAerial-Ground Cooperativeの3D知覚のための最初の大規模実世界のデータセットである。
このデータセットは、都市部のラウンドアバウト、ハイウェイトンネル、オン/オフランプを含む14の現実世界の運転シナリオをカバーしている。
車両間協調認識と車間協調認識の2つの3次元タスクのベンチマークを提供する。
- 参考スコア(独自算出の注目度): 45.225172917280254
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: By sharing information across multiple agents, collaborative perception helps autonomous vehicles mitigate occlusions and improve overall perception accuracy. While most previous work focus on vehicle-to-vehicle and vehicle-to-infrastructure collaboration, with limited attention to aerial perspectives provided by UAVs, which uniquely offer dynamic, top-down views to alleviate occlusions and monitor large-scale interactive environments. A major reason for this is the lack of high-quality datasets for aerial-ground collaborative scenarios. To bridge this gap, we present AGC-Drive, the first large-scale real-world dataset for Aerial-Ground Cooperative 3D perception. The data collection platform consists of two vehicles, each equipped with five cameras and one LiDAR sensor, and one UAV carrying a forward-facing camera and a LiDAR sensor, enabling comprehensive multi-view and multi-agent perception. Consisting of approximately 120K LiDAR frames and 440K images, the dataset covers 14 diverse real-world driving scenarios, including urban roundabouts, highway tunnels, and on/off ramps. Notably, 19.5% of the data comprises dynamic interaction events, including vehicle cut-ins, cut-outs, and frequent lane changes. AGC-Drive contains 400 scenes, each with approximately 100 frames and fully annotated 3D bounding boxes covering 13 object categories. We provide benchmarks for two 3D perception tasks: vehicle-to-vehicle collaborative perception and vehicle-to-UAV collaborative perception. Additionally, we release an open-source toolkit, including spatiotemporal alignment verification tools, multi-agent visualization systems, and collaborative annotation utilities. The dataset and code are available at https://github.com/PercepX/AGC-Drive.
- Abstract(参考訳): 複数のエージェントにまたがる情報を共有することで、自動運転車の閉塞を緩和し、全体的な知覚精度を向上させることができる。
これまでのほとんどの研究は車と車、車とインフラのコラボレーションに重点を置いていたが、UAVが提供するダイナミックでトップダウンなビューを提供することで、閉塞を緩和し、大規模な対話環境を監視できる。
主な理由は、地上共同シナリオのための高品質なデータセットが欠如していることである。
このギャップを埋めるために、AGC-DriveはAerial-Ground Cooperativeの3D知覚のための最初の大規模実世界のデータセットである。
データ収集プラットフォームは、それぞれ5台のカメラと1台のLiDARセンサーを備えた2台の車両と、前方カメラとLiDARセンサーを搭載した1台のUAVで構成される。
約120KのLiDARフレームと440Kの画像からなるこのデータセットは、都市部でのラウンドアバウト、ハイウェイトンネル、オン/オフランプを含む14の現実世界の運転シナリオをカバーしている。
特に、データの19.5%は、車両のカットイン、カットアウト、頻繁な車線変更を含む動的相互作用イベントで構成されている。
AGC-Driveには400のシーンがあり、それぞれ約100のフレームと13のオブジェクトカテゴリをカバーする完全な注釈付き3Dバウンディングボックスがある。
車両間協調認識と車間協調認識の2つの3次元タスクのベンチマークを提供する。
さらに、時空間アライメント検証ツール、マルチエージェント可視化システム、協調アノテーションユーティリティを含むオープンソースツールキットをリリースする。
データセットとコードはhttps://github.com/PercepX/AGC-Driveで公開されている。
関連論文リスト
- V2X-Radar: A Multi-modal Dataset with 4D Radar for Cooperative Perception [47.55064735186109]
V2X-Radarは、4Dレーダを特徴とする世界初の大規模実世界のマルチモーダルデータセットである。
データセットは20KのLiDARフレーム、40Kのカメライメージ、20Kの4Dレーダデータで構成され、5つのカテゴリに350Kの注釈付きボックスが含まれている。
様々な研究領域をサポートするために, 協調認識のためのV2X-Radar-C, 路面認識のためのV2X-Radar-I, 単車知覚のためのV2X-Radar-Vを確立した。
論文 参考訳(メタデータ) (2024-11-17T04:59:00Z) - RoboSense: Large-scale Dataset and Benchmark for Egocentric Robot Perception and Navigation in Crowded and Unstructured Environments [62.5830455357187]
我々は3種類のセンサー(Camera, LiDAR, Fisheye)をベースとした自我中心型マルチセンサデータ収集プラットフォームを構築した。
大規模なマルチモーダルデータセットであるRoboSenseは、エゴセントリックなロボット知覚を促進するために構築されている。
論文 参考訳(メタデータ) (2024-08-28T03:17:40Z) - V2X-Real: a Large-Scale Dataset for Vehicle-to-Everything Cooperative Perception [22.3955949838171]
V2X-Realは大規模なデータセットで、複数の車両とスマートインフラストラクチャが混在している。
我々のデータセットには33KのLiDARフレームと171Kのカメラデータが含まれており、非常に困難な都市シナリオでは10のカテゴリに1.2Mの注釈付きバウンディングボックスがある。
論文 参考訳(メタデータ) (2024-03-24T06:30:02Z) - HoloVIC: Large-scale Dataset and Benchmark for Multi-Sensor Holographic Intersection and Vehicle-Infrastructure Cooperative [23.293162454592544]
複数レイアウトのホログラフィック交差点を構築し,HoloVICと呼ばれる大規模多センサのホログラフィック車両・赤外線協調データセットを構築した。
私たちのデータセットには3種類のセンサー(Camera, Lidar, Fisheye)が含まれています。
論文 参考訳(メタデータ) (2024-03-05T04:08:19Z) - V2V4Real: A Real-world Large-scale Dataset for Vehicle-to-Vehicle
Cooperative Perception [49.7212681947463]
車両から車両への協調認識システム(V2V)は、自動運転産業に革命をもたらす大きな可能性を秘めている。
V2V4Realは、V2V知覚のための世界初の大規模実世界のマルチモーダルデータセットである。
我々のデータセットは、20KのLiDARフレーム、40KのRGBフレーム、240Kの注釈付き5クラスの3Dバウンディングボックス、HDMapからなる410kmの走行領域をカバーしている。
論文 参考訳(メタデータ) (2023-03-14T02:49:20Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。