論文の概要: Generate Realistic Test Scenes for V2X Communication Systems
- arxiv url: http://arxiv.org/abs/2506.07419v1
- Date: Mon, 09 Jun 2025 04:35:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.805321
- Title: Generate Realistic Test Scenes for V2X Communication Systems
- Title(参考訳): V2X通信システムのための実測テストシーンの生成
- Authors: An Guo, Xinyu Gao, Chunrong Fang, Haoxiang Tian, Weisong Sun, Yanzhou Mu, Shuncheng Tang, Lei Ma, Zhenyu Chen,
- Abstract要約: 我々は,V2X協調認識システムのための自動テストツールであるV2XGenを設計,実装する。
V2XGenは、現実的な協調オブジェクトインスタンスを生成し、それらを背景データに戦略的に配置するために、高忠実なアプローチを利用する。
本稿では,V2XGen 上で異なる融合方式による複数の協調認識システムを用いて実験を行い,その性能評価を行う。
- 参考スコア(独自算出の注目度): 16.608937542327418
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurately perceiving complex driving environments is essential for ensuring the safe operation of autonomous vehicles. With the tremendous progress in deep learning and communication technologies, cooperative perception with Vehicle-to-Everything (V2X) technologies has emerged as a solution to overcome the limitations of single-agent perception systems in perceiving distant objects and occlusions. Despite the considerable advancements, V2X cooperative perception systems require thorough testing and continuous enhancement of system performance. Given that V2X driving scenes entail intricate communications with multiple vehicles across various geographic locations, creating V2X test scenes for these systems poses a significant challenge. Moreover, current testing methodologies rely on manual data collection and labeling, which are both time-consuming and costly. In this paper, we design and implement V2XGen, an automated testing generation tool for V2X cooperative perception systems. V2XGen utilizes a high-fidelity approach to generate realistic cooperative object instances and strategically place them within the background data in crucial positions. Furthermore, V2XGen adopts a fitness-guided V2X scene generation strategy for the transformed scene generation process and improves testing efficiency. We conduct experiments on V2XGen using multiple cooperative perception systems with different fusion schemes to assess its performance on various tasks. The experimental results demonstrate that V2XGen is capable of generating realistic test scenes and effectively detecting erroneous behaviors in different V2X-oriented driving conditions. Furthermore, the results validate that retraining systems under test with the generated scenes can enhance average detection precision while reducing occlusion and long-range perception errors.
- Abstract(参考訳): 自動運転車の安全な運転を確保するためには、複雑な運転環境を正確に知覚することが不可欠である。
深層学習とコミュニケーション技術の飛躍的な進歩により、遠隔物体や閉塞を知覚する単一エージェント認識システムの限界を克服するソリューションとして、V2X(Van-to-Everything)技術による協調認識が出現している。
かなりの進歩にもかかわらず、V2X協調認識システムは徹底的なテストとシステム性能の継続的な向上を必要としている。
V2Xの運転シーンは、様々な場所を横断する複数の車両との複雑な通信を必要とするため、これらのシステムのためのV2Xテストシーンを作成することは、大きな課題となる。
さらに、現在のテスト手法は手動のデータ収集とラベル付けに依存している。
本稿では,V2X協調認識システムのための自動テスト生成ツールであるV2XGenの設計と実装を行う。
V2XGenは、現実的な協調オブジェクトインスタンスを生成し、それらを背景データに戦略的に重要な位置に置くために、高忠実なアプローチを利用する。
さらに、V2XGenは、変換されたシーン生成プロセスに対して、フィットネス誘導型V2Xシーン生成戦略を採用し、テスト効率を向上させる。
本稿では,V2XGen 上で異なる融合方式による複数の協調認識システムを用いて実験を行い,その性能評価を行う。
実験の結果、V2XGenは現実的なテストシーンを生成でき、異なるV2X指向の運転条件下での誤動作を効果的に検出できることがわかった。
さらに、生成されたシーンでテスト中のリトレーニングシステムは、閉塞や長距離知覚誤差を低減しつつ、平均検出精度を高めることができることを示した。
関連論文リスト
- Mixed Signals: A Diverse Point Cloud Dataset for Heterogeneous LiDAR V2X Collaboration [56.75198775820637]
車両間協調認識(V2X)は、単車知覚システムの限界に対処するための有望な解決策として登場した。
これらのギャップに対処するために、45.1kの点雲と240.6kのバウンディングボックスを備えた総合的なV2XデータセットであるMixed Signalsを紹介した。
私たちのデータセットは、正確に整合したポイントクラウドと10クラスにわたるバウンディングボックスアノテーションを提供し、認識トレーニングのための信頼性の高いデータを確保します。
論文 参考訳(メタデータ) (2025-02-19T23:53:00Z) - V2X-DGPE: Addressing Domain Gaps and Pose Errors for Robust Collaborative 3D Object Detection [18.694510415777632]
V2X-DGPEは高精度で堅牢なV2X特徴レベルの協調認識フレームワークである。
提案手法は既存の手法より優れ、最先端検出性能を実現する。
論文 参考訳(メタデータ) (2025-01-04T19:28:55Z) - CooTest: An Automated Testing Approach for V2X Communication Systems [15.570594621752834]
我々は,V2X指向の協調認識モジュールの最初の自動テストツールであるCooTestを設計,実装した。
CooTestは、様々なV2X指向の運転条件下での誤動作を効果的に検出できる。
論文 参考訳(メタデータ) (2024-08-29T12:01:21Z) - CooPre: Cooperative Pretraining for V2X Cooperative Perception [47.00472259100765]
本稿では,V2X協調認識のための自己教師付き学習手法を提案する。
膨大な量のラベルのない3D V2Xデータを用いて知覚性能を向上させる。
論文 参考訳(メタデータ) (2024-08-20T23:39:26Z) - RD-VIO: Robust Visual-Inertial Odometry for Mobile Augmented Reality in
Dynamic Environments [55.864869961717424]
視覚的・視覚的慣性オドメトリーシステムでは、動的シーンや純粋な回転の問題に対処することが通常困難である。
我々はこれらの問題に対処するためにRD-VIOと呼ばれる新しい視覚-慣性オドメトリーシステム(VIO)を設計する。
論文 参考訳(メタデータ) (2023-10-23T16:30:39Z) - V2V4Real: A Real-world Large-scale Dataset for Vehicle-to-Vehicle
Cooperative Perception [49.7212681947463]
車両から車両への協調認識システム(V2V)は、自動運転産業に革命をもたらす大きな可能性を秘めている。
V2V4Realは、V2V知覚のための世界初の大規模実世界のマルチモーダルデータセットである。
我々のデータセットは、20KのLiDARフレーム、40KのRGBフレーム、240Kの注釈付き5クラスの3Dバウンディングボックス、HDMapからなる410kmの走行領域をカバーしている。
論文 参考訳(メタデータ) (2023-03-14T02:49:20Z) - V2XP-ASG: Generating Adversarial Scenes for Vehicle-to-Everything
Perception [37.41995438002604]
V2X知覚システムはすぐに大規模に展開される。
現実のデプロイメントに先立って,困難なトラフィックシナリオの下で,パフォーマンスの評価と改善を行なうには,どうすればよいのでしょう?
本稿では,V2XP-ASGのオープンなシーン生成手法を提案する。
論文 参考訳(メタデータ) (2022-09-27T20:34:41Z) - V2X-ViT: Vehicle-to-Everything Cooperative Perception with Vision
Transformer [58.71845618090022]
我々は、道路上のエージェント間で情報を融合するために、V2X-ViTという全体論的アテンションモデルを構築した。
V2X-ViTは異質なマルチエージェント自己アテンションとマルチスケールウィンドウ自己アテンションの交互層から構成される。
我々のアプローチを検証するために、我々は大規模なV2X知覚データセットを作成します。
論文 参考訳(メタデータ) (2022-03-20T20:18:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。