論文の概要: V2X-DG: Domain Generalization for Vehicle-to-Everything Cooperative Perception
- arxiv url: http://arxiv.org/abs/2503.15435v1
- Date: Wed, 19 Mar 2025 17:17:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-20 15:23:09.971897
- Title: V2X-DG: Domain Generalization for Vehicle-to-Everything Cooperative Perception
- Title(参考訳): V2X-DG:車両間協調認識のための領域一般化
- Authors: Baolu Li, Zongzhe Xu, Jinlong Li, Xinyu Liu, Jianwu Fang, Xiaopeng Li, Hongkai Yu,
- Abstract要約: 本稿では,LiDARに基づくV2X協調知覚の領域一般化問題を研究するための最初の研究である。
我々の研究は、ソースドメインだけでなく、他の見えないドメインでも高いパフォーマンスを維持することを目指している。
- 参考スコア(独自算出の注目度): 34.97091536254836
- License:
- Abstract: LiDAR-based Vehicle-to-Everything (V2X) cooperative perception has demonstrated its impact on the safety and effectiveness of autonomous driving. Since current cooperative perception algorithms are trained and tested on the same dataset, the generalization ability of cooperative perception systems remains underexplored. This paper is the first work to study the Domain Generalization problem of LiDAR-based V2X cooperative perception (V2X-DG) for 3D detection based on four widely-used open source datasets: OPV2V, V2XSet, V2V4Real and DAIR-V2X. Our research seeks to sustain high performance not only within the source domain but also across other unseen domains, achieved solely through training on source domain. To this end, we propose Cooperative Mixup Augmentation based Generalization (CMAG) to improve the model generalization capability by simulating the unseen cooperation, which is designed compactly for the domain gaps in cooperative perception. Furthermore, we propose a constraint for the regularization of the robust generalized feature representation learning: Cooperation Feature Consistency (CFC), which aligns the intermediately fused features of the generalized cooperation by CMAG and the early fused features of the original cooperation in source domain. Extensive experiments demonstrate that our approach achieves significant performance gains when generalizing to other unseen datasets while it also maintains strong performance on the source dataset.
- Abstract(参考訳): LiDARをベースとしたV2X(Vine-to-Everything)協調認識は、自動運転の安全性と有効性にその影響を実証している。
現在の協調認識アルゴリズムは、同じデータセット上で訓練され、テストされているため、協調認識システムの一般化能力はいまだ検討されていない。
本稿では,広範に使用されている4つのオープンソースデータセット(PV2V, V2XSet, V2V4Real, DAIR-V2X)に基づいて,LiDARを用いたV2X協調認識(V2X-DG)の領域一般化問題を研究する。
我々の研究は、ソースドメイン内だけでなく、ソースドメインのトレーニングを通じてのみ達成される、他の見えないドメインに対しても高いパフォーマンスを維持することを目指している。
そこで本研究では、協調認識における領域ギャップをコンパクトに設計した、目に見えない協調をシミュレートしてモデル一般化能力を向上させるために、協調混合強化に基づく一般化(CMAG)を提案する。
さらに、我々は、CMAGによる一般化された協調の中間的融合特徴と、ソース領域における元の協調の初期の融合特徴とを整合させる協調特徴整合性(CFC)について、頑健な一般化された特徴表現学習の正規化のための制約を提案する。
大規模な実験により、我々のアプローチは、他の目に見えないデータセットに一般化すると同時に、ソースデータセット上での強いパフォーマンスを維持しながら、大きなパフォーマンス向上を実現していることが示された。
関連論文リスト
- V2X-DGPE: Addressing Domain Gaps and Pose Errors for Robust Collaborative 3D Object Detection [18.694510415777632]
V2X-DGPEは高精度で堅牢なV2X特徴レベルの協調認識フレームワークである。
提案手法は既存の手法より優れ、最先端検出性能を実現する。
論文 参考訳(メタデータ) (2025-01-04T19:28:55Z) - CooPre: Cooperative Pretraining for V2X Cooperative Perception [47.00472259100765]
本稿では,V2X協調認識のための自己教師付き学習手法を提案する。
膨大な量のラベルのない3D V2Xデータを用いて知覚性能を向上させる。
論文 参考訳(メタデータ) (2024-08-20T23:39:26Z) - UVCPNet: A UAV-Vehicle Collaborative Perception Network for 3D Object Detection [11.60579201022641]
地上共同作業に特化して設計された枠組みを提案する。
研究のためにV2U-COOという仮想データセットを開発した。
第2に、ターゲット情報を調整するために、クロスドメイン・クロスアダプティブ(CDCA)モジュールを設計する。
第3に,より正確な深度推定結果を得るために,協調深度最適化(CDO)モジュールを導入する。
論文 参考訳(メタデータ) (2024-06-07T05:25:45Z) - End-to-End Autonomous Driving through V2X Cooperation [23.44597411612664]
先駆的な協調自動運転フレームワークUniV2Xを紹介する。
UniV2Xは様々なビューにまたがるすべてのキー駆動モジュールをシームレスに統合ネットワークに統合する。
論文 参考訳(メタデータ) (2024-03-31T15:22:11Z) - CMP: Cooperative Motion Prediction with Multi-Agent Communication [21.60646440715162]
本稿では,協調動作予測の実現可能性と有効性について検討する。
提案手法であるCMPは,LiDAR信号をモデル入力とし,追跡と予測能力を向上させる。
特に、CMPは最強のベースラインに比べて平均予測誤差を12.3%削減する。
論文 参考訳(メタデータ) (2024-03-26T17:53:27Z) - What Makes Good Collaborative Views? Contrastive Mutual Information Maximization for Multi-Agent Perception [52.41695608928129]
マルチエージェント認識(MAP)は、複数のソースからのデータを解釈することで、自律システムが複雑な環境を理解することを可能にする。
本稿では,MAPにおける協調的視点の「良い」特性を探求することに焦点を当てた中間的協調について検討する。
中間コラボレーションのための新しいフレームワークCMiMCを提案する。
論文 参考訳(メタデータ) (2024-03-15T07:18:55Z) - Interruption-Aware Cooperative Perception for V2X Communication-Aided
Autonomous Driving [49.42873226593071]
本稿では,V2X通信支援自律運転のためのV2X通信入出力対応協調知覚(V2X-INCOP)を提案する。
我々は、過去の協力情報を用いて、割り込みによる行方不明情報を復元し、割り込み問題の影響を軽減する。
3つの公的な協調認識データセットの実験から,コミュニケーション中断が協調知覚に与える影響を緩和するために提案手法が有効であることが示された。
論文 参考訳(メタデータ) (2023-04-24T04:59:13Z) - V2X-ViT: Vehicle-to-Everything Cooperative Perception with Vision
Transformer [58.71845618090022]
我々は、道路上のエージェント間で情報を融合するために、V2X-ViTという全体論的アテンションモデルを構築した。
V2X-ViTは異質なマルチエージェント自己アテンションとマルチスケールウィンドウ自己アテンションの交互層から構成される。
我々のアプローチを検証するために、我々は大規模なV2X知覚データセットを作成します。
論文 参考訳(メタデータ) (2022-03-20T20:18:25Z) - Cross-Domain Facial Expression Recognition: A Unified Evaluation
Benchmark and Adversarial Graph Learning [85.6386289476598]
我々は,クロスドメイン全体的特徴共適応のための新しい逆グラフ表現適応(AGRA)フレームワークを開発した。
我々は,いくつかの一般的なベンチマークで広範囲かつ公平な評価を行い,提案したAGRAフレームワークが従来の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-08-03T15:00:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。