論文の概要: HorizonForge: Driving Scene Editing with Any Trajectories and Any Vehicles
- arxiv url: http://arxiv.org/abs/2602.21333v1
- Date: Tue, 24 Feb 2026 20:03:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.59325
- Title: HorizonForge: Driving Scene Editing with Any Trajectories and Any Vehicles
- Title(参考訳): HorizonForge:あらゆる軌道と車両でシーンを編集する
- Authors: Yifan Wang, Francesco Pittaluga, Zaid Tasneem, Chenyu You, Manmohan Chandraker, Ziyu Jiang,
- Abstract要約: 制御可能な運転シーン生成は、現実的でスケーラブルな自律運転シミュレーションに不可欠である。
シーンを編集可能なガウス版とメッシュとして再構築する統合フレームワークであるHorizonForgeを紹介した。
実験により、ガウス・メシュ表現は代替の3次元表現よりもかなり高い忠実性をもたらすことが示された。
- 参考スコア(独自算出の注目度): 63.88996084630768
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Controllable driving scene generation is critical for realistic and scalable autonomous driving simulation, yet existing approaches struggle to jointly achieve photorealism and precise control. We introduce HorizonForge, a unified framework that reconstructs scenes as editable Gaussian Splats and Meshes, enabling fine-grained 3D manipulation and language-driven vehicle insertion. Edits are rendered through a noise-aware video diffusion process that enforces spatial and temporal consistency, producing diverse scene variations in a single feed-forward pass without per-trajectory optimization. To standardize evaluation, we further propose HorizonSuite, a comprehensive benchmark spanning ego- and agent-level editing tasks such as trajectory modifications and object manipulation. Extensive experiments show that Gaussian-Mesh representation delivers substantially higher fidelity than alternative 3D representations, and that temporal priors from video diffusion are essential for coherent synthesis. Combining these findings, HorizonForge establishes a simple yet powerful paradigm for photorealistic, controllable driving simulation, achieving an 83.4% user-preference gain and a 25.19% FID improvement over the second best state-of-the-art method. Project page: https://horizonforge.github.io/ .
- Abstract(参考訳): 制御可能な運転シーン生成は、現実的でスケーラブルな自律運転シミュレーションにおいて重要であるが、既存のアプローチでは、光リアリズムと精密制御の両立に苦慮している。
我々はHorizonForgeを紹介した。HorizonForgeは、シーンを編集可能なガウススプレートとメッシュとして再構築し、きめ細かい3D操作と言語駆動車両挿入を可能にする。
編集は、空間的および時間的一貫性を強制し、軌跡ごとの最適化なしに、単一のフィードフォワードパスにおける多様なシーン変動を生成するノイズ対応ビデオ拡散プロセスを通じて行われる。
評価の標準化のために,軌跡修正やオブジェクト操作などのエージェントレベルの編集タスクを対象とする総合的なベンチマークであるHorizonSuiteを提案する。
広汎な実験により、ガウス・メシュ表現は代替3次元表現よりもかなり忠実であり、ビデオ拡散の時間的先行はコヒーレント合成に不可欠であることが示されている。
これらの知見を組み合わせることで、HorizonForgeは光リアリスティックで制御可能な運転シミュレーションのシンプルなパラダイムを確立し、83.4%のユーザ設定ゲインと25.19%のFID改善を実現した。
プロジェクトページ: https://horizonforge.github.io/
関連論文リスト
- SymDrive: Realistic and Controllable Driving Simulator via Symmetric Auto-regressive Online Restoration [37.202523124756034]
現在のアプローチは、しばしば大きな角度の新規ビュー合成に干渉し、資産操作中に幾何学的または照明的アーティファクトに悩まされる。
高品質なレンダリングとシーン編集が可能な統合拡散ベースのフレームワークであるSymDriveを提案する。
我々は,SymDriveが新規視認性向上とリアル3D車両挿入の両面において,光実写性能を実現することを実証した。
論文 参考訳(メタデータ) (2025-12-25T10:28:43Z) - DrivingGaussian++: Towards Realistic Reconstruction and Editable Simulation for Surrounding Dynamic Driving Scenes [49.23098808629567]
DrivingGaussian++は、自律運転シーンをリアルに再構成し、制御可能な編集を行うための効率的なフレームワークである。
テクスチャ修正、天気予報、オブジェクト操作など、ダイナミックな運転シーンのためのトレーニング不要のコントロール可能な編集をサポートする。
提案手法は,動的物体の運動軌跡を自動的に生成し,最適化過程における現実性を高める。
論文 参考訳(メタデータ) (2025-08-28T16:22:54Z) - SceneCrafter: Controllable Multi-View Driving Scene Editing [44.91248700043744]
SceneCrafterは、複数のカメラから撮影した運転シーンをリアルな3D一貫性で操作するための汎用的なエディタである。
SceneCrafterは、既存のベースラインと比較して最先端のリアリズム、制御性、3D一貫性、シーン編集品質を実現している。
論文 参考訳(メタデータ) (2025-06-24T10:23:47Z) - StreetCrafter: Street View Synthesis with Controllable Video Diffusion Models [76.62929629864034]
我々は,LDARポイントクラウドレンダリングをピクセルレベルの条件として利用する,制御可能なビデオ拡散モデルであるStreetCrafterを紹介する。
さらに、画素レベルのLiDAR条件を利用することで、ターゲットシーンに対して正確なピクセルレベルの編集を行うことができる。
我々のモデルは視点変化を柔軟に制御し、レンダリング領域を満たすためのビューを拡大する。
論文 参考訳(メタデータ) (2024-12-17T18:58:55Z) - AutoSplat: Constrained Gaussian Splatting for Autonomous Driving Scene Reconstruction [17.600027937450342]
AutoSplatは、自動走行シーンの高度に現実的な再構築を実現するために、ガウシアンスプラッティングを使用したフレームワークである。
本手法は,車線変更を含む課題シナリオの多視点一貫したシミュレーションを可能にする。
論文 参考訳(メタデータ) (2024-07-02T18:36:50Z) - DragTraffic: Interactive and Controllable Traffic Scene Generation for Autonomous Driving [10.90477019946728]
DragTrafficは、条件付き拡散に基づく、汎用的でインタラクティブで制御可能なトラフィックシーン生成フレームワークである。
我々は回帰モデルを用いて、一般的な初期解と条件拡散モデルに基づく改良プロセスを提供し、多様性を保証する。
実世界の運転データセットの実験によると、DragTrafficは信頼性、多様性、自由度で既存の手法より優れている。
論文 参考訳(メタデータ) (2024-04-19T04:49:28Z) - DrivingGaussian: Composite Gaussian Splatting for Surrounding Dynamic Autonomous Driving Scenes [57.12439406121721]
我々は動的自律走行シーンを囲む効率的かつ効果的なフレームワークであるDrivingGaussianを提案する。
動くオブジェクトを持つ複雑なシーンでは、まずシーン全体の静的な背景を逐次、段階的にモデル化します。
次に、複合動的ガウスグラフを利用して、複数の移動物体を処理する。
我々はさらに、ガウススプラッティングに先立ってLiDARを使用して、より詳細でシーンを再構築し、パノラマ一貫性を維持する。
論文 参考訳(メタデータ) (2023-12-13T06:30:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。