論文の概要: FreeGen: Feed-Forward Reconstruction-Generation Co-Training for Free-Viewpoint Driving Scene Synthesis
- arxiv url: http://arxiv.org/abs/2512.04830v1
- Date: Thu, 04 Dec 2025 14:14:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:46.210575
- Title: FreeGen: Feed-Forward Reconstruction-Generation Co-Training for Free-Viewpoint Driving Scene Synthesis
- Title(参考訳): FreeGen: 自由視点駆動シーン合成のためのフィードフォワード再構成-生成協調学習
- Authors: Shijie Chen, Peixi Peng,
- Abstract要約: FreeGenは、フリービューポイント駆動シーンのためのフィードフォワード再構築世代協調トレーニングフレームワークである。
自由視点駆動シーン合成において,FreeGenが最先端の性能を達成することを示す。
- 参考スコア(独自算出の注目度): 24.76850299847588
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Closed-loop simulation and scalable pre-training for autonomous driving require synthesizing free-viewpoint driving scenes. However, existing datasets and generative pipelines rarely provide consistent off-trajectory observations, limiting large-scale evaluation and training. While recent generative models demonstrate strong visual realism, they struggle to jointly achieve interpolation consistency and extrapolation realism without per-scene optimization. To address this, we propose FreeGen, a feed-forward reconstruction-generation co-training framework for free-viewpoint driving scene synthesis. The reconstruction model provides stable geometric representations to ensure interpolation consistency, while the generation model performs geometry-aware enhancement to improve realism at unseen viewpoints. Through co-training, generative priors are distilled into the reconstruction model to improve off-trajectory rendering, and the refined geometry in turn offers stronger structural guidance for generation. Experiments demonstrate that FreeGen achieves state-of-the-art performance for free-viewpoint driving scene synthesis.
- Abstract(参考訳): 自動運転のためのクローズドループシミュレーションとスケーラブルな事前訓練は、自由視点運転シーンの合成を必要とする。
しかし、既存のデータセットや生成パイプラインは、大規模な評価とトレーニングを制限し、一貫した軌道外観測を提供することは滅多にない。
最近の生成モデルは強い視覚的リアリズムを示すが、シーンごとの最適化なしに補間一貫性と補間リアリズムを共同で達成することは困難である。
これを解決するために,フリー視点駆動シーン合成のためのフィードフォワード再構成世代協調学習フレームワークFreeGenを提案する。
再構成モデルは補間整合性を確保するために安定な幾何学的表現を提供し、生成モデルは幾何学的拡張を行い、目に見えない視点でリアリズムを改善する。
共同学習により、生成前の前駆体を再構成モデルに蒸留して軌道外レンダリングを改善し、改良された幾何学はより強力な構造的ガイダンスを提供する。
実験により、FreeGenは、自由視点駆動シーン合成のための最先端のパフォーマンスを実現する。
関連論文リスト
- HybridWorldSim: A Scalable and Controllable High-fidelity Simulator for Autonomous Driving [59.55918581964678]
HybridWorldSimは、静的バックグラウンドのためのマルチトラバースニューラルネットワーク再構成と、動的エージェントの生成モデルを統合するハイブリッドシミュレーションフレームワークである。
我々は、様々な都市をまたがる幅広いルートや環境条件をキャプチャーする、新しいマルチトラバースデータセットMIRRORをリリースする。
論文 参考訳(メタデータ) (2025-11-27T07:53:16Z) - Scaling Up Occupancy-centric Driving Scene Generation: Dataset and Method [54.461213497603154]
作業中心の手法は、最近、フレームとモダリティをまたいだ一貫した条件付けを提供することで、最先端の結果を得た。
Nuplan-Occは、広く使われているNuplanベンチマークから構築された、これまでで最大の占有率データセットである。
高品質な占有、多視点ビデオ、LiDAR点雲を共同で合成する統合フレームワークを開発した。
論文 参考訳(メタデータ) (2025-10-27T03:52:45Z) - ReCoM: Realistic Co-Speech Motion Generation with Recurrent Embedded Transformer [58.49950218437718]
音声に同期した高忠実で一般化可能な人体動作を生成するための効率的なフレームワークであるReCoMを提案する。
Recurrent Embedded Transformer (RET)は、動的埋め込み正規化(DER)をViT(Vit)コアアーキテクチャに統合する。
モデルロバスト性を高めるため,ノイズ抵抗とクロスドメイン一般化の二重性を持つモデルに,提案したDER戦略を取り入れた。
論文 参考訳(メタデータ) (2025-03-27T16:39:40Z) - Bench2Drive-R: Turning Real World Data into Reactive Closed-Loop Autonomous Driving Benchmark by Generative Model [63.336123527432136]
我々は,リアクティブ閉ループ評価を可能にする生成フレームワークであるBench2Drive-Rを紹介する。
既存の自動運転用ビデオ生成モデルとは異なり、提案された設計はインタラクティブなシミュレーションに適したものである。
我々は、Bench2Drive-Rの生成品質を既存の生成モデルと比較し、最先端の性能を達成する。
論文 参考訳(メタデータ) (2024-12-11T06:35:18Z) - Driving View Synthesis on Free-form Trajectories with Generative Prior [39.24591650300784]
DriveXは、新しいフリーフォーム駆動ビュー合成フレームワークである。
生成を最適化中に3次元ガウスモデルに蒸留する。
記録された軌道を超える高品質なビュー合成をリアルタイムで達成する。
論文 参考訳(メタデータ) (2024-12-02T17:07:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。