論文の概要: SymDrive: Realistic and Controllable Driving Simulator via Symmetric Auto-regressive Online Restoration
- arxiv url: http://arxiv.org/abs/2512.21618v1
- Date: Thu, 25 Dec 2025 10:28:43 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-29 12:05:05.037732
- Title: SymDrive: Realistic and Controllable Driving Simulator via Symmetric Auto-regressive Online Restoration
- Title(参考訳): SymDrive:Symmetric Auto-Regressive Online Restorationによるリアルかつ制御可能な運転シミュレータ
- Authors: Zhiyuan Liu, Daocheng Fu, Pinlong Cai, Lening Wang, Ying Liu, Yilong Ren, Botian Shi, Jianqiang Wang,
- Abstract要約: 現在のアプローチは、しばしば大きな角度の新規ビュー合成に干渉し、資産操作中に幾何学的または照明的アーティファクトに悩まされる。
高品質なレンダリングとシーン編集が可能な統合拡散ベースのフレームワークであるSymDriveを提案する。
我々は,SymDriveが新規視認性向上とリアル3D車両挿入の両面において,光実写性能を実現することを実証した。
- 参考スコア(独自算出の注目度): 37.202523124756034
- License:
- Abstract: High-fidelity and controllable 3D simulation is essential for addressing the long-tail data scarcity in Autonomous Driving (AD), yet existing methods struggle to simultaneously achieve photorealistic rendering and interactive traffic editing. Current approaches often falter in large-angle novel view synthesis and suffer from geometric or lighting artifacts during asset manipulation. To address these challenges, we propose SymDrive, a unified diffusion-based framework capable of joint high-quality rendering and scene editing. We introduce a Symmetric Auto-regressive Online Restoration paradigm, which constructs paired symmetric views to recover fine-grained details via a ground-truth-guided dual-view formulation and utilizes an auto-regressive strategy for consistent lateral view generation. Furthermore, we leverage this restoration capability to enable a training-free harmonization mechanism, treating vehicle insertion as context-aware inpainting to ensure seamless lighting and shadow consistency. Extensive experiments demonstrate that SymDrive achieves state-of-the-art performance in both novel-view enhancement and realistic 3D vehicle insertion.
- Abstract(参考訳): 高忠実で制御可能な3Dシミュレーションは、自律運転(AD)における長い尾のデータの不足に対処するために不可欠であるが、既存の手法では、フォトリアリスティックなレンダリングとインタラクティブなトラフィック編集を同時に行うのに苦労している。
現在のアプローチは、しばしば大きな角度の新規ビュー合成に干渉し、資産操作中に幾何学的または照明的アーティファクトに悩まされる。
このような課題に対処するために,高品質なレンダリングとシーン編集を併用可能な統合拡散ベースのフレームワークであるSymDriveを提案する。
両面の左右方向の視線生成に自己回帰的戦略を応用し, 左右方向の視線生成を図り, 左右方向の視線生成により細粒度を復元する対称性自動回帰オンライン再生パラダイムを導入する。
さらに、この復元機能を活用して、トレーニング不要な調和機構を実現し、車両挿入をコンテキスト対応の塗装として扱い、シームレスな照明と影の整合性を確保する。
広汎な実験により、SymDriveは3D車両の新規性向上とリアル性向上の両面において最先端の性能を達成することが示された。
関連論文リスト
- Optimization-Guided Diffusion for Interactive Scene Generation [52.23368750264419]
本稿では,拡散型サンプリングにおける構造的一貫性と相互作用認識を実現するための,最適化誘導型トレーニングフリーフレームワークであるOMEGAを提案する。
OMEGAは生成リアリズム,一貫性,可制御性を向上し,身体的および行動学的に有効なシーンの比率を増大させることを示す。
当社のアプローチでは,3秒未満の時間対コリションで,より近いコリジョンフレームを5ドル(約5,500円)で生成することも可能だ。
論文 参考訳(メタデータ) (2025-12-08T15:56:18Z) - GeoDrive: 3D Geometry-Informed Driving World Model with Precise Action Control [50.67481583744243]
実世界モデルにロバストな3次元形状条件を明示的に統合したGeoDriveを紹介する。
車両の位置を編集することでレンダリングを強化するため,トレーニング中の動的編集モジュールを提案する。
動作精度と空間認識の両面で既存のモデルよりも優れていた。
論文 参考訳(メタデータ) (2025-05-28T14:46:51Z) - Drive-1-to-3: Enriching Diffusion Priors for Novel View Synthesis of Real Vehicles [81.29018359825872]
本稿では,実世界の課題に対して,大規模な事前学習モデルを微調整するための一連の優れたプラクティスを統合する。
具体的には,合成データと実運転データとの相違を考慮に入れたいくつかの戦略を開発する。
我々の洞察は、先行芸術よりも新しいビュー合成のためのFIDを68.8%値下げする効果のある微調整につながる。
論文 参考訳(メタデータ) (2024-12-19T03:39:13Z) - Driving View Synthesis on Free-form Trajectories with Generative Prior [39.24591650300784]
DriveXは、新しいフリーフォーム駆動ビュー合成フレームワークである。
生成を最適化中に3次元ガウスモデルに蒸留する。
記録された軌道を超える高品質なビュー合成をリアルタイムで達成する。
論文 参考訳(メタデータ) (2024-12-02T17:07:53Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。