論文の概要: ReCamDriving: LiDAR-Free Camera-Controlled Novel Trajectory Video Generation
- arxiv url: http://arxiv.org/abs/2512.03621v1
- Date: Wed, 03 Dec 2025 09:55:25 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-04 12:03:55.513615
- Title: ReCamDriving: LiDAR-Free Camera-Controlled Novel Trajectory Video Generation
- Title(参考訳): LiDARなしのカメラ内蔵トラジェクティブ・ビデオ・ジェネレーション(動画)
- Authors: Yaokun Li, Shuaixian Wang, Mantang Guo, Jiehui Huang, Taojun Ding, Mu Hu, Kaixuan Wang, Shaojie Shen, Guang Tan,
- Abstract要約: ReCamDrivingは、ビジョンベースでカメラ制御されたノベル・トラジェクトリー・ビデオ生成フレームワークである。
本稿では,3DGSを用いたクロストラジェクトリデータキュレーション手法を提案する。
- 参考スコア(独自算出の注目度): 38.23100905961028
- License:
- Abstract: We propose ReCamDriving, a purely vision-based, camera-controlled novel-trajectory video generation framework. While repair-based methods fail to restore complex artifacts and LiDAR-based approaches rely on sparse and incomplete cues, ReCamDriving leverages dense and scene-complete 3DGS renderings for explicit geometric guidance, achieving precise camera-controllable generation. To mitigate overfitting to restoration behaviors when conditioned on 3DGS renderings, ReCamDriving adopts a two-stage training paradigm: the first stage uses camera poses for coarse control, while the second stage incorporates 3DGS renderings for fine-grained viewpoint and geometric guidance. Furthermore, we present a 3DGS-based cross-trajectory data curation strategy to eliminate the train-test gap in camera transformation patterns, enabling scalable multi-trajectory supervision from monocular videos. Based on this strategy, we construct the ParaDrive dataset, containing over 110K parallel-trajectory video pairs. Extensive experiments demonstrate that ReCamDriving achieves state-of-the-art camera controllability and structural consistency.
- Abstract(参考訳): 我々は、純粋に視覚に基づく、カメラ制御された新規軌跡ビデオ生成フレームワークであるReCamDrivingを提案する。
修復ベースの手法は複雑なアーティファクトの復元に失敗し、LiDARベースのアプローチはスパースと不完全なキューに依存している。
3DGSレンダリングで条件付けされた場合のオーバーフィットを緩和するため、ReCamDrivingは2段階のトレーニングパラダイムを採用し、第1ステージは粗い制御にカメラポーズを使用し、第2ステージは細かな視点と幾何学的ガイダンスのために3DGSレンダリングを組み込んでいる。
さらに,3DGSに基づくクロストラジェクトリデータキュレーション戦略を提案し,カメラ変換パターンのトレイン-テストギャップを解消し,モノクロビデオからスケーラブルなマルチトラジェクトリ監視を可能にする。
この戦略に基づいて,110K以上の並列軌道ビデオペアを含むParaDriveデータセットを構築した。
大規模な実験により、ReCamDrivingは最先端のカメラ制御性と構造的整合性を達成している。
関連論文リスト
- PCR-GS: COLMAP-Free 3D Gaussian Splatting via Pose Co-Regularizations [102.0476991174456]
COLMAPのない3DGSは、未ポーズの画像やビデオから高品質な3Dシーンを再構築する際、顕著なパフォーマンスのために注目を集めている。
PCR-GSはCOLMAPフリーな3DGS技術であり,カメラポーズによる3Dシーンモデリングとカメラポーズ推定を実現する。
論文 参考訳(メタデータ) (2025-07-18T13:09:33Z) - Uni3C: Unifying Precisely 3D-Enhanced Camera and Human Motion Controls for Video Generation [73.73984727616198]
映像生成におけるカメラと人間の動きを正確に制御するための統合フレームワークUni3Cを提案する。
まず,フリーズビデオ生成バックボーンであるPCDControllerで学習したプラグイン・アンド・プレイ制御モジュールを提案する。
第2に,景観点雲とSMPL-X文字をシームレスに統合する推論フェーズの3次元ワールドガイダンスを提案する。
論文 参考訳(メタデータ) (2025-04-21T07:10:41Z) - CoGen: 3D Consistent Video Generation via Adaptive Conditioning for Autonomous Driving [25.156989992025625]
本研究では,空間適応型生成フレームワークCoGenを導入し,高3次元一貫性で制御可能なマルチビュービデオを実現する。
粗い2次元条件を微細な3次元表現に置き換えることで,生成した映像の空間的整合性を大幅に向上させる。
以上の結果から, この手法は, 自律運転のための信頼性の高い映像生成ソリューションとして, 幾何学的忠実度と視覚的リアリズムの保存に優れることが示された。
論文 参考訳(メタデータ) (2025-03-28T08:27:05Z) - LiftImage3D: Lifting Any Single Image to 3D Gaussians with Video Generation Priors [107.83398512719981]
シングルイメージの3D再構成は、コンピュータビジョンの根本的な課題である。
遅延ビデオ拡散モデルの最近の進歩は、大規模ビデオデータから学ぶ有望な3D事前情報を提供する。
本稿では,LVDMの生成先行情報を効果的にリリースするフレームワークであるLiftImage3Dを提案する。
論文 参考訳(メタデータ) (2024-12-12T18:58:42Z) - T-3DGS: Removing Transient Objects for 3D Scene Reconstruction [83.05271859398779]
映像シーケンスにおける過渡的オブジェクトは、3Dシーン再構成の品質を著しく低下させる可能性がある。
我々は,ガウススプラッティングを用いた3次元再構成において,過渡的障害を頑健に除去する新しいフレームワークT-3DGSを提案する。
論文 参考訳(メタデータ) (2024-11-29T07:45:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。