論文の概要: RGE-GS: Reward-Guided Expansive Driving Scene Reconstruction via Diffusion Priors
- arxiv url: http://arxiv.org/abs/2506.22800v1
- Date: Sat, 28 Jun 2025 08:02:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.573556
- Title: RGE-GS: Reward-Guided Expansive Driving Scene Reconstruction via Diffusion Priors
- Title(参考訳): RGE-GS: 拡散前処理による後退誘導走行シーン再構築
- Authors: Sicong Du, Jiarun Liu, Qifeng Chen, Hao-Xiang Chen, Tai-Jiang Mu, Sheng Yang,
- Abstract要約: RGE-GSは、拡散に基づく生成と報酬誘導ガウス積分を相乗化する新しい拡張的再構築フレームワークである。
本稿では,復元フェーズに先立って一貫したパターンを識別・優先順位付けする報奨ネットワークを提案する。
復元過程において,シーン収束度に応じてガウス最適化の進捗を自動的に調整する学習戦略を考案した。
- 参考スコア(独自算出の注目度): 54.81109375939306
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A single-pass driving clip frequently results in incomplete scanning of the road structure, making reconstructed scene expanding a critical requirement for sensor simulators to effectively regress driving actions. Although contemporary 3D Gaussian Splatting (3DGS) techniques achieve remarkable reconstruction quality, their direct extension through the integration of diffusion priors often introduces cumulative physical inconsistencies and compromises training efficiency. To address these limitations, we present RGE-GS, a novel expansive reconstruction framework that synergizes diffusion-based generation with reward-guided Gaussian integration. The RGE-GS framework incorporates two key innovations: First, we propose a reward network that learns to identify and prioritize consistently generated patterns prior to reconstruction phases, thereby enabling selective retention of diffusion outputs for spatial stability. Second, during the reconstruction process, we devise a differentiated training strategy that automatically adjust Gaussian optimization progress according to scene converge metrics, which achieving better convergence than baseline methods. Extensive evaluations of publicly available datasets demonstrate that RGE-GS achieves state-of-the-art performance in reconstruction quality. Our source-code will be made publicly available at https://github.com/CN-ADLab/RGE-GS. (Camera-ready version incorporating reviewer suggestions will be updated soon.)
- Abstract(参考訳): 単一パス駆動クリップは道路構造を不完全に走査することが多く、再構成シーンは運転動作を効果的に抑制するためのセンサシミュレーターにとって重要な要件を拡大する。
現代の3Dガウススプラッティング(3DGS)技術は目覚ましい再現性を実現するが、拡散前の統合による直接拡張は、しばしば累積的な物理的不整合を導入し、訓練効率を損なう。
これらの制約に対処するために、報酬誘導ガウス積分と拡散に基づく生成を相乗化する新しい拡張的再構成フレームワーク RGE-GS を提案する。
RGE-GSフレームワークには2つの重要なイノベーションが組み込まれている。まず、再構成フェーズに先立って一貫したパターンの識別と優先順位付けを学習し、空間安定のために拡散出力の選択的保持を可能にする報奨ネットワークを提案する。
第2に、再構成過程において、シーン収束度に応じてガウス最適化の進捗を自動的に調整し、ベースライン法よりもコンバージェンスに優れる訓練戦略を考案する。
公開データセットの大規模な評価は、RGE-GSが復元品質の最先端のパフォーマンスを達成することを示す。
ソースコードはhttps://github.com/CN-ADLab/RGE-GSで公開されます。
(リビュア提案を取り入れたカメラ対応バージョンも近く更新される予定)
関連論文リスト
- Perceptual-GS: Scene-adaptive Perceptual Densification for Gaussian Splatting [4.082216579462796]
3Dガウススプラッティングは、新しいビュー合成の強力な技術として登場した。
本稿では,知覚感度を3DGSトレーニングプロセスに統合する新しいフレームワークであるPerceptual-GSを提案する。
Perceptual-GSは, 再現性, 効率, 堅牢性において, 最先端の性能を実現していることを示す。
論文 参考訳(メタデータ) (2025-06-14T08:31:53Z) - Intern-GS: Vision Model Guided Sparse-View 3D Gaussian Splatting [95.61137026932062]
Intern-GSはスパースビューガウススプラッティングのプロセスを強化する新しいアプローチである。
Intern-GSは多様なデータセットにまたがって最先端のレンダリング品質を実現する。
論文 参考訳(メタデータ) (2025-05-27T05:17:49Z) - FreeSplat++: Generalizable 3D Gaussian Splatting for Efficient Indoor Scene Reconstruction [50.534213038479926]
FreeSplat++は大規模な屋内全シーン再構築の代替手法である。
深度調整による微調整により,再現精度が大幅に向上し,トレーニング時間も大幅に短縮された。
論文 参考訳(メタデータ) (2025-03-29T06:22:08Z) - StreamGS: Online Generalizable Gaussian Splatting Reconstruction for Unposed Image Streams [32.91936079359693]
本稿では,非ポーズ画像ストリームのための3DGS再構成手法であるStreamGSを提案する。
StreamGSは、画像ストリームを3Dガウスストリームに変換する。
多様なデータセットの実験では、StreamGSは最適化ベースのアプローチと同等の品質を実現しているが、150倍高速であることが示された。
論文 参考訳(メタデータ) (2025-03-08T14:35:39Z) - CrossView-GS: Cross-view Gaussian Splatting For Large-scale Scene Reconstruction [5.528874948395173]
マルチブランチ構築と融合に基づく大規模シーン再構築のための新しいクロスビューガウス分割法を提案する。
本手法は,最先端の手法と比較して,新規なビュー合成における優れた性能を実現する。
論文 参考訳(メタデータ) (2025-01-03T08:24:59Z) - Radiant: Large-scale 3D Gaussian Rendering based on Hierarchical Framework [13.583584930991847]
大規模シーン再構成のための階層型3DGSアルゴリズムであるRadiantを提案する。
Radiantは、リビルド品質を最大25.7%改善し、エンドツーエンドのレイテンシを79.6%削減した。
論文 参考訳(メタデータ) (2024-12-07T05:48:00Z) - DGTR: Distributed Gaussian Turbo-Reconstruction for Sparse-View Vast Scenes [81.56206845824572]
新規ビュー合成(NVS)アプローチは、広大なシーン再構築において重要な役割を担っている。
大規模な環境下では、復元の質が悪くなる場合が少なくない。
本稿では,スパース・ビュー・ワイド・シーンのための効率的なガウス再構成のための分散フレームワークであるDGTRを提案する。
論文 参考訳(メタデータ) (2024-11-19T07:51:44Z) - MCGS: Multiview Consistency Enhancement for Sparse-View 3D Gaussian Radiance Fields [73.49548565633123]
3Dガウシアンによって表現される放射場は、高いトレーニング効率と高速レンダリングの両方を提供する、新しいビューの合成に優れている。
既存の手法では、高密度推定ネットワークからの奥行き先を組み込むことが多いが、入力画像に固有の多視点一貫性を見落としている。
本稿では,3次元ガウス・スプレイティング(MCGS)に基づくビュー・フレームワークを提案し,スパークス・インプット・ビューからシーンを再構築する。
論文 参考訳(メタデータ) (2024-10-15T08:39:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。