論文の概要: CRUISE: Cooperative Reconstruction and Editing in V2X Scenarios using Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2507.18473v1
- Date: Thu, 24 Jul 2025 14:48:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-25 15:10:43.821239
- Title: CRUISE: Cooperative Reconstruction and Editing in V2X Scenarios using Gaussian Splatting
- Title(参考訳): CRUISE:Gaussian Splatting を用いたV2Xシナリオの協調的再構成と編集
- Authors: Haoran Xu, Saining Zhang, Peishuo Li, Baijun Ye, Xiaoxue Chen, Huan-ang Gao, Jv Zheng, Xiaowei Song, Ziqiao Peng, Run Miao, Jinrang Jia, Yifeng Shi, Guangqi Yi, Hang Zhao, Hao Tang, Hongyang Li, Kaicheng Yu, Hao Zhao,
- Abstract要約: 車間通信(V2X)は、自動運転車において重要な役割を担い、車とインフラの連携を可能にする。
本稿では,V2X運転環境向けに設計された総合的再構成合成フレームワークCRUISEを紹介する。
- 参考スコア(独自算出の注目度): 48.883658011726915
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vehicle-to-everything (V2X) communication plays a crucial role in autonomous driving, enabling cooperation between vehicles and infrastructure. While simulation has significantly contributed to various autonomous driving tasks, its potential for data generation and augmentation in V2X scenarios remains underexplored. In this paper, we introduce CRUISE, a comprehensive reconstruction-and-synthesis framework designed for V2X driving environments. CRUISE employs decomposed Gaussian Splatting to accurately reconstruct real-world scenes while supporting flexible editing. By decomposing dynamic traffic participants into editable Gaussian representations, CRUISE allows for seamless modification and augmentation of driving scenes. Furthermore, the framework renders images from both ego-vehicle and infrastructure views, enabling large-scale V2X dataset augmentation for training and evaluation. Our experimental results demonstrate that: 1) CRUISE reconstructs real-world V2X driving scenes with high fidelity; 2) using CRUISE improves 3D detection across ego-vehicle, infrastructure, and cooperative views, as well as cooperative 3D tracking on the V2X-Seq benchmark; and 3) CRUISE effectively generates challenging corner cases.
- Abstract(参考訳): 車間通信(V2X)は、自動運転車において重要な役割を担い、車とインフラの連携を可能にする。
シミュレーションは様々な自律運転タスクに大きく貢献しているが、V2Xシナリオにおけるデータ生成と拡張の可能性はまだ未調査である。
本稿では,V2X運転環境向けに設計された総合的再構成合成フレームワークCRUISEを紹介する。
CRUISEは分解したガウススプラッティングを用いて、フレキシブルな編集をサポートしながら現実世界のシーンを正確に再構築する。
動的トラフィック参加者を編集可能なガウス表現に分解することで、CRUISEはドライブシーンのシームレスな修正と拡張を可能にする。
さらに、このフレームワークは、Ego-vehicleとインフラストラクチャビューの両方のイメージをレンダリングし、トレーニングと評価のために大規模なV2Xデータセット拡張を可能にする。
我々の実験結果は以下のとおりである。
1)CRUISEは、高忠実度で現実世界のV2X運転シーンを再構築する。
2) CRUISEは,エゴ車,インフラ,協調的な視点における3D検出を改善するとともに,V2X-Seqベンチマーク上での協調的な3D追跡も改善する。
3)CRUISEは,挑戦的なコーナーケースを効果的に生成する。
関連論文リスト
- RoCo-Sim: Enhancing Roadside Collaborative Perception through Foreground Simulation [30.744548212616007]
道路側協調認識のための最初のシミュレーションフレームワークRoCo-Simを提案する。
RoCo-Simは多様なマルチビュー一貫した路面データを生成することができる。
コードと事前訓練されたモデルはまもなくリリースされる。
論文 参考訳(メタデータ) (2025-03-13T14:33:42Z) - Vid2Sim: Realistic and Interactive Simulation from Video for Urban Navigation [62.5805866419814]
Vid2Simは、ニューラル3Dシーンの再構築とシミュレーションのためのスケーラブルで費用効率のよいReal2simパイプラインを通じてsim2realギャップをブリッジする新しいフレームワークである。
実験により、Vid2Simはデジタル双生児と現実世界の都市ナビゲーションの性能を31.2%、成功率68.3%で大幅に改善することが示された。
論文 参考訳(メタデータ) (2025-01-12T03:01:15Z) - CooPre: Cooperative Pretraining for V2X Cooperative Perception [47.00472259100765]
CooPreは、V2X協調知覚のための自己教師型学習フラムワークである。
異種V2Xエージェント間の3D特徴に効果的に注意を向けることのできる,V2Xバードアイビュー(BEV)ガイドマスキング戦略を開発した。
CooPreはV2X-Realデータセットで4%のmAP改善を実現し、トレーニングデータの50%しか使用せず、ベースラインのパフォーマンスを上回っている。
論文 参考訳(メタデータ) (2024-08-20T23:39:26Z) - V2V4Real: A Real-world Large-scale Dataset for Vehicle-to-Vehicle
Cooperative Perception [49.7212681947463]
車両から車両への協調認識システム(V2V)は、自動運転産業に革命をもたらす大きな可能性を秘めている。
V2V4Realは、V2V知覚のための世界初の大規模実世界のマルチモーダルデータセットである。
我々のデータセットは、20KのLiDARフレーム、40KのRGBフレーム、240Kの注釈付き5クラスの3Dバウンディングボックス、HDMapからなる410kmの走行領域をカバーしている。
論文 参考訳(メタデータ) (2023-03-14T02:49:20Z) - V2XP-ASG: Generating Adversarial Scenes for Vehicle-to-Everything
Perception [37.41995438002604]
V2X知覚システムはすぐに大規模に展開される。
現実のデプロイメントに先立って,困難なトラフィックシナリオの下で,パフォーマンスの評価と改善を行なうには,どうすればよいのでしょう?
本稿では,V2XP-ASGのオープンなシーン生成手法を提案する。
論文 参考訳(メタデータ) (2022-09-27T20:34:41Z) - V2X-ViT: Vehicle-to-Everything Cooperative Perception with Vision
Transformer [58.71845618090022]
我々は、道路上のエージェント間で情報を融合するために、V2X-ViTという全体論的アテンションモデルを構築した。
V2X-ViTは異質なマルチエージェント自己アテンションとマルチスケールウィンドウ自己アテンションの交互層から構成される。
我々のアプローチを検証するために、我々は大規模なV2X知覚データセットを作成します。
論文 参考訳(メタデータ) (2022-03-20T20:18:25Z) - V2X-Sim: A Virtual Collaborative Perception Dataset for Autonomous
Driving [26.961213523096948]
V2X(V2X)は、車両と周囲のあらゆる物体の協調を意味する。
V2X-Simデータセットは、自動運転における最初の大規模協調認識データセットである。
論文 参考訳(メタデータ) (2022-02-17T05:14:02Z) - LiDAR-based Panoptic Segmentation via Dynamic Shifting Network [56.71765153629892]
LiDARベースのパノプティカルセグメンテーションは、オブジェクトとシーンを統一的に解析することを目的としている。
本稿では,ポイントクラウド領域における効果的な単視分割フレームワークとして機能する動的シフトネットワーク(DS-Net)を提案する。
提案するDS-Netは,現在の最先端手法よりも優れた精度を実現する。
論文 参考訳(メタデータ) (2020-11-24T08:44:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。