論文の概要: AirV2X: Unified Air-Ground Vehicle-to-Everything Collaboration
- arxiv url: http://arxiv.org/abs/2506.19283v1
- Date: Tue, 24 Jun 2025 03:34:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-25 19:48:23.472063
- Title: AirV2X: Unified Air-Ground Vehicle-to-Everything Collaboration
- Title(参考訳): AirV2X:全周を空輸する統一型空輸車
- Authors: Xiangbo Gao, Yuheng Wu, Xuewen Luo, Keshu Wu, Xinghao Chen, Yuping Wang, Chenxi Liu, Yang Zhou, Zhengzhong Tu,
- Abstract要約: 我々は、無人航空機(UAV)を柔軟な代替品として活用し、固定道路側ユニット(RSU)を補完する大規模なデータセットであるAirV2X-Perceptionを提案する。
私たちのデータセットは、天気や照明条件の異なる都市、郊外、田舎の環境を横断する6.73時間のドローン支援運転シナリオで構成されています。
- 参考スコア(独自算出の注目度): 17.778141917123996
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While multi-vehicular collaborative driving demonstrates clear advantages over single-vehicle autonomy, traditional infrastructure-based V2X systems remain constrained by substantial deployment costs and the creation of "uncovered danger zones" in rural and suburban areas. We present AirV2X-Perception, a large-scale dataset that leverages Unmanned Aerial Vehicles (UAVs) as a flexible alternative or complement to fixed Road-Side Units (RSUs). Drones offer unique advantages over ground-based perception: complementary bird's-eye-views that reduce occlusions, dynamic positioning capabilities that enable hovering, patrolling, and escorting navigation rules, and significantly lower deployment costs compared to fixed infrastructure. Our dataset comprises 6.73 hours of drone-assisted driving scenarios across urban, suburban, and rural environments with varied weather and lighting conditions. The AirV2X-Perception dataset facilitates the development and standardized evaluation of Vehicle-to-Drone (V2D) algorithms, addressing a critical gap in the rapidly expanding field of aerial-assisted autonomous driving systems. The dataset and development kits are open-sourced at https://github.com/taco-group/AirV2X-Perception.
- Abstract(参考訳): 複数車両の共同運転は、単一車両の自律性よりも明確な利点を示しているが、従来のインフラベースのV2Xシステムは、相当な展開コストと、農村部や郊外の「未発見危険地帯」の創出によって制約を受け続けている。
本研究では,無人航空機(UAV)を柔軟な代替品として活用する大規模データセットであるAirV2X-Perceptionを提案する。
ドローンは、接点を減らす補完的な鳥眼ビュー、ホバリング、パトロール、航法規則の護衛を可能にするダイナミックな位置決め機能、固定されたインフラに比べて配置コストを大幅に削減する。
当社のデータセットは、都市、郊外、田園部で6.73時間のドローン支援運転シナリオで構成されており、天候や照明条件は様々である。
AirV2X-PerceptionデータセットはV2Dアルゴリズムの開発と標準化を促進する。
データセットと開発キットはhttps://github.com/taco-group/AirV2X-Perceptionでオープンソース化されている。
関連論文リスト
- NOVA: Navigation via Object-Centric Visual Autonomy for High-Speed Target Tracking in Unstructured GPS-Denied Environments [56.35569661650558]
我々はNOVAというオブジェクト中心のフレームワークを導入し、ロバストな目標追跡と衝突認識ナビゲーションを可能にした。
グローバルマップを構築するのではなく、NOVAはターゲットの参照フレーム内での知覚、推定、制御を定式化する。
我々は,都市迷路や森林の小道,間欠的なGPS損失を伴う建物内の繰り返し遷移など,現実の挑戦的なシナリオにまたがってNOVAを検証する。
論文 参考訳(メタデータ) (2025-06-23T14:28:30Z) - ViVa-SAFELAND: a New Freeware for Safe Validation of Vision-based Navigation in Aerial Vehicles [0.0]
ViVa-SAFELANDは、航空車両の視覚ベースのナビゲーション戦略のテストと評価を目的とした、オープンソースのソフトウェアライブラリである。
ViVa-SAFELANDは、異なるビジュアルナビゲーションソリューションを評価し比較するための、新しい、安全で、シンプルで、公正な比較ベースラインを提供する。
深層学習を用いた自律パイロットの訓練に有用である。
論文 参考訳(メタデータ) (2025-03-18T20:48:50Z) - V2X-VLM: End-to-End V2X Cooperative Autonomous Driving Through Large Vision-Language Models [13.716889927164383]
自動車間協力(V2X)は、古典的な自動運転の認識限界を克服するための有望なパラダイムとして浮上している。
本稿では、視覚言語モデル(VLM)に基づく新しいエンドツーエンド(E2E)協調自動運転フレームワークであるV2X-VLMを紹介する。
V2X-VLMは、車両やインフラからの多視点カメラビューとテキストベースのシーン記述を統合し、運転環境のより包括的な理解を可能にする。
論文 参考訳(メタデータ) (2024-08-17T16:42:13Z) - Radiance Field Learners As UAV First-Person Viewers [36.59524833437512]
第一パーソンビュー(FPV)は無人航空機(UAV)の軌道に革命をもたらす大きな可能性を秘めている
従来のNeNeRF(Neural Radiance Field)手法は、粒度ごとに単一点をサンプリングするといった課題に直面している。
FPV-NeRFを導入し、これらの課題に3つの重要な面を通して対処する。
論文 参考訳(メタデータ) (2024-08-10T12:29:11Z) - Infrastructure-Assisted Collaborative Perception in Automated Valet Parking: A Safety Perspective [11.405406875019175]
協調知覚は、連結車両の視野を広げるために適用することができる。
インフラ支援型AVPシステムのためのBEV機能に基づくCPネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-03-22T12:11:06Z) - MSight: An Edge-Cloud Infrastructure-based Perception System for
Connected Automated Vehicles [58.461077944514564]
本稿では,自動走行車に特化して設計された最先端道路側認識システムであるMSightについて述べる。
MSightは、リアルタイムの車両検出、ローカライゼーション、トラッキング、短期的な軌道予測を提供する。
評価は、待ち時間を最小限にしてレーンレベルの精度を維持するシステムの能力を強調している。
論文 参考訳(メタデータ) (2023-10-08T21:32:30Z) - V2V4Real: A Real-world Large-scale Dataset for Vehicle-to-Vehicle
Cooperative Perception [49.7212681947463]
車両から車両への協調認識システム(V2V)は、自動運転産業に革命をもたらす大きな可能性を秘めている。
V2V4Realは、V2V知覚のための世界初の大規模実世界のマルチモーダルデータセットである。
我々のデータセットは、20KのLiDARフレーム、40KのRGBフレーム、240Kの注釈付き5クラスの3Dバウンディングボックス、HDMapからなる410kmの走行領域をカバーしている。
論文 参考訳(メタデータ) (2023-03-14T02:49:20Z) - VPAIR -- Aerial Visual Place Recognition and Localization in Large-scale
Outdoor Environments [49.82314641876602]
VPAIRという新しいデータセットを提示します。
データセットは地上300メートル以上の高度で飛行する軽航空機に記録されている。
このデータセットは、様々なタイプの挑戦的な風景を、100km以上にわたってカバーしている。
論文 参考訳(メタデータ) (2022-05-23T18:50:08Z) - V2X-ViT: Vehicle-to-Everything Cooperative Perception with Vision
Transformer [58.71845618090022]
我々は、道路上のエージェント間で情報を融合するために、V2X-ViTという全体論的アテンションモデルを構築した。
V2X-ViTは異質なマルチエージェント自己アテンションとマルチスケールウィンドウ自己アテンションの交互層から構成される。
我々のアプローチを検証するために、我々は大規模なV2X知覚データセットを作成します。
論文 参考訳(メタデータ) (2022-03-20T20:18:25Z) - V2X-Sim: A Virtual Collaborative Perception Dataset for Autonomous
Driving [26.961213523096948]
V2X(V2X)は、車両と周囲のあらゆる物体の協調を意味する。
V2X-Simデータセットは、自動運転における最初の大規模協調認識データセットである。
論文 参考訳(メタデータ) (2022-02-17T05:14:02Z) - A Multi-UAV System for Exploration and Target Finding in Cluttered and
GPS-Denied Environments [68.31522961125589]
複雑なGPSを用いた複雑な環境において,UAVのチームが協調して目標を探索し,発見するための枠組みを提案する。
UAVのチームは自律的にナビゲートし、探索し、検出し、既知の地図で散らばった環境でターゲットを見つける。
その結果, 提案方式は, 時間的コスト, 調査対象地域の割合, 捜索・救助ミッションの成功率などの面で改善されていることがわかった。
論文 参考訳(メタデータ) (2021-07-19T12:54:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。