論文の概要: When Autonomous Vehicle Meets V2X Cooperative Perception: How Far Are We?
- arxiv url: http://arxiv.org/abs/2509.24927v1
- Date: Mon, 29 Sep 2025 15:28:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:20.092777
- Title: When Autonomous Vehicle Meets V2X Cooperative Perception: How Far Are We?
- Title(参考訳): 自動運転車がV2Xの協力的認識と出会う: 距離はどれくらいか?
- Authors: An Guo, Shuoxiao Zhang, Enyi Tang, Xinyu Gao, Haomin Pang, Haoxiang Tian, Yanzhou Mu, Wu Wen, Chunrong Fang, Zhenyu Chen,
- Abstract要約: V2X(Van-to-Everything)協調的な知覚は、遠く離れた物体を感知する際の限界に対処する可能性がある。
本研究では,エゴ車両の知覚性能に及ぼす協調知覚の影響について検討した。
本研究は,協調認識システムの重要な構成要素における潜在的なリスクと脆弱性を明らかにするものである。
- 参考スコア(独自算出の注目度): 22.371763887363034
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the tremendous advancement of deep learning and communication technology, Vehicle-to-Everything (V2X) cooperative perception has the potential to address limitations in sensing distant objects and occlusion for a single-agent perception system. V2X cooperative perception systems are software systems characterized by diverse sensor types and cooperative agents, varying fusion schemes, and operation under different communication conditions. Therefore, their complex composition gives rise to numerous operational challenges. Furthermore, when cooperative perception systems produce erroneous predictions, the types of errors and their underlying causes remain insufficiently explored. To bridge this gap, we take an initial step by conducting an empirical study of V2X cooperative perception. To systematically evaluate the impact of cooperative perception on the ego vehicle's perception performance, we identify and analyze six prevalent error patterns in cooperative perception systems. We further conduct a systematic evaluation of the critical components of these systems through our large-scale study and identify the following key findings: (1) The LiDAR-based cooperation configuration exhibits the highest perception performance; (2) Vehicle-to-infrastructure (V2I) and vehicle-to-vehicle (V2V) communication exhibit distinct cooperative perception performance under different fusion schemes; (3) Increased cooperative perception errors may result in a higher frequency of driving violations; (4) Cooperative perception systems are not robust against communication interference when running online. Our results reveal potential risks and vulnerabilities in critical components of cooperative perception systems. We hope that our findings can better promote the design and repair of cooperative perception systems.
- Abstract(参考訳): 深層学習とコミュニケーション技術の飛躍的な進歩により、V2X(Vager-to-Everything)協調認識は、遠距離物体を感知する際の限界に対処し、単一エージェント認識システムに対する閉塞に対処する可能性がある。
V2X協調認識システムは、多様なセンサタイプと協調エージェント、様々な融合スキーム、異なる通信条件下での操作を特徴とするソフトウェアシステムである。
したがって、それらの複雑な構成は多くの運用上の課題を引き起こす。
さらに、協調認識システムが誤予測を発生させると、エラーの種類とその根本原因は未解明のままである。
このギャップを埋めるために、我々はV2X協調知覚の実証的研究を行い、最初の一歩を踏み出した。
協調知覚がエゴ車両の知覚性能に与える影響を系統的に評価するために,協調認識システムにおける6つの一般的な誤りパターンを特定し,解析する。
1)LiDARに基づく協調構成は、高い知覚能力を示し、(2)車両間(V2I)と車両間(V2V)のコミュニケーションは、異なる融合方式下で異なる協調認識性能を示し、(3)協調認識エラーの増加は、運転違反の発生頻度が高く、(4)協調認識システムは、オンラインでの走行時の通信干渉に対して堅牢ではない。
本研究は,協調認識システムの重要な構成要素における潜在的なリスクと脆弱性を明らかにするものである。
本研究は,協調認識システムの設計と修復を促進できることを願っている。
関連論文リスト
- Systematic Literature Review on Vehicular Collaborative Perception -- A Computer Vision Perspective [2.7251914328668314]
コラボレーティブ・パーセプション(CP)は、これらの問題を緩和するための有望な解決策として登場した。
この研究は、PRISMA 2020ガイドラインに従い、106のピアレビュー記事を含む。
論文 参考訳(メタデータ) (2025-04-06T21:56:04Z) - CooTest: An Automated Testing Approach for V2X Communication Systems [15.570594621752834]
我々は,V2X指向の協調認識モジュールの最初の自動テストツールであるCooTestを設計,実装した。
CooTestは、様々なV2X指向の運転条件下での誤動作を効果的に検出できる。
論文 参考訳(メタデータ) (2024-08-29T12:01:21Z) - CMP: Cooperative Motion Prediction with Multi-Agent Communication [21.60646440715162]
本稿では,協調動作予測の実現可能性と有効性について検討する。
提案手法であるCMPは,LiDAR信号をモデル入力とし,追跡と予測能力を向上させる。
特に、CMPは最強のベースラインに比べて平均予測誤差を12.3%削減する。
論文 参考訳(メタデータ) (2024-03-26T17:53:27Z) - Vehicle-to-Everything Cooperative Perception for Autonomous Driving [46.292402824957975]
車間協調知覚は、知覚範囲を拡大し、検出精度を高める上で重要な役割を担っている。
エージェントの選択,データアライメント,特徴融合など,信頼性の高い認識共有を可能にするための重要な技術について詳細に検討する。
本論文は、車から全車への協調的認識の今後の進歩を支援するための、有望な研究方針を概説することで締めくくっている。
論文 参考訳(メタデータ) (2023-10-05T13:19:48Z) - Re-mine, Learn and Reason: Exploring the Cross-modal Semantic
Correlations for Language-guided HOI detection [57.13665112065285]
ヒューマンオブジェクトインタラクション(HOI)検出は、コンピュータビジョンの課題である。
本稿では,構造化テキスト知識を組み込んだHOI検出フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-25T14:20:52Z) - Interruption-Aware Cooperative Perception for V2X Communication-Aided
Autonomous Driving [49.42873226593071]
本稿では,V2X通信支援自律運転のためのV2X通信入出力対応協調知覚(V2X-INCOP)を提案する。
我々は、過去の協力情報を用いて、割り込みによる行方不明情報を復元し、割り込み問題の影響を軽減する。
3つの公的な協調認識データセットの実験から,コミュニケーション中断が協調知覚に与える影響を緩和するために提案手法が有効であることが示された。
論文 参考訳(メタデータ) (2023-04-24T04:59:13Z) - V2X-ViT: Vehicle-to-Everything Cooperative Perception with Vision
Transformer [58.71845618090022]
我々は、道路上のエージェント間で情報を融合するために、V2X-ViTという全体論的アテンションモデルを構築した。
V2X-ViTは異質なマルチエージェント自己アテンションとマルチスケールウィンドウ自己アテンションの交互層から構成される。
我々のアプローチを検証するために、我々は大規模なV2X知覚データセットを作成します。
論文 参考訳(メタデータ) (2022-03-20T20:18:25Z) - Learning to Communicate and Correct Pose Errors [75.03747122616605]
本稿では、V2VNetで提案された設定について検討し、近くにある自動運転車が共同で物体検出と動き予測を協調的に行う方法を提案する。
本稿では,コミュニケーションを学習し,潜在的な誤りを推定し,それらの誤りについてコンセンサスを得るための新しいニューラルネットワーク推論フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-10T18:19:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。