論文の概要: RGE-GS: Reward-Guided Expansive Driving Scene Reconstruction via Diffusion Priors
- arxiv url: http://arxiv.org/abs/2506.22800v1
- Date: Sat, 28 Jun 2025 08:02:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.573556
- Title: RGE-GS: Reward-Guided Expansive Driving Scene Reconstruction via Diffusion Priors
- Title(参考訳): RGE-GS: 拡散前処理による後退誘導走行シーン再構築
- Authors: Sicong Du, Jiarun Liu, Qifeng Chen, Hao-Xiang Chen, Tai-Jiang Mu, Sheng Yang,
- Abstract要約: RGE-GSは、拡散に基づく生成と報酬誘導ガウス積分を相乗化する新しい拡張的再構築フレームワークである。
本稿では,復元フェーズに先立って一貫したパターンを識別・優先順位付けする報奨ネットワークを提案する。
復元過程において,シーン収束度に応じてガウス最適化の進捗を自動的に調整する学習戦略を考案した。
- 参考スコア(独自算出の注目度): 54.81109375939306
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A single-pass driving clip frequently results in incomplete scanning of the road structure, making reconstructed scene expanding a critical requirement for sensor simulators to effectively regress driving actions. Although contemporary 3D Gaussian Splatting (3DGS) techniques achieve remarkable reconstruction quality, their direct extension through the integration of diffusion priors often introduces cumulative physical inconsistencies and compromises training efficiency. To address these limitations, we present RGE-GS, a novel expansive reconstruction framework that synergizes diffusion-based generation with reward-guided Gaussian integration. The RGE-GS framework incorporates two key innovations: First, we propose a reward network that learns to identify and prioritize consistently generated patterns prior to reconstruction phases, thereby enabling selective retention of diffusion outputs for spatial stability. Second, during the reconstruction process, we devise a differentiated training strategy that automatically adjust Gaussian optimization progress according to scene converge metrics, which achieving better convergence than baseline methods. Extensive evaluations of publicly available datasets demonstrate that RGE-GS achieves state-of-the-art performance in reconstruction quality. Our source-code will be made publicly available at https://github.com/CN-ADLab/RGE-GS. (Camera-ready version incorporating reviewer suggestions will be updated soon.)
- Abstract(参考訳): 単一パス駆動クリップは道路構造を不完全に走査することが多く、再構成シーンは運転動作を効果的に抑制するためのセンサシミュレーターにとって重要な要件を拡大する。
現代の3Dガウススプラッティング(3DGS)技術は目覚ましい再現性を実現するが、拡散前の統合による直接拡張は、しばしば累積的な物理的不整合を導入し、訓練効率を損なう。
これらの制約に対処するために、報酬誘導ガウス積分と拡散に基づく生成を相乗化する新しい拡張的再構成フレームワーク RGE-GS を提案する。
RGE-GSフレームワークには2つの重要なイノベーションが組み込まれている。まず、再構成フェーズに先立って一貫したパターンの識別と優先順位付けを学習し、空間安定のために拡散出力の選択的保持を可能にする報奨ネットワークを提案する。
第2に、再構成過程において、シーン収束度に応じてガウス最適化の進捗を自動的に調整し、ベースライン法よりもコンバージェンスに優れる訓練戦略を考案する。
公開データセットの大規模な評価は、RGE-GSが復元品質の最先端のパフォーマンスを達成することを示す。
ソースコードはhttps://github.com/CN-ADLab/RGE-GSで公開されます。
(リビュア提案を取り入れたカメラ対応バージョンも近く更新される予定)
関連論文リスト
- Decomposing Densification in Gaussian Splatting for Faster 3D Scene Reconstruction [5.929129351088044]
3D Gaussian Splatting (GS)は、高品質なシーン再構築のための強力な表現として登場し、魅力的なレンダリング品質を提供している。
本稿では, 細部保存と計算効率のバランスをとる上でのそれらの役割を明らかにするとともに, デンシフィケーションフェーズにおける分割・クローン操作の包括的解析について述べる。
本稿では2次元画像のエネルギー密度に基づいて徐々に解像度を向上するエネルギー誘導型粗度多分解能トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-27T11:47:20Z) - Perceptual-GS: Scene-adaptive Perceptual Densification for Gaussian Splatting [4.082216579462796]
3Dガウススプラッティングは、新しいビュー合成の強力な技術として登場した。
本稿では,知覚感度を3DGSトレーニングプロセスに統合する新しいフレームワークであるPerceptual-GSを提案する。
Perceptual-GSは, 再現性, 効率, 堅牢性において, 最先端の性能を実現していることを示す。
論文 参考訳(メタデータ) (2025-06-14T08:31:53Z) - Intern-GS: Vision Model Guided Sparse-View 3D Gaussian Splatting [95.61137026932062]
Intern-GSはスパースビューガウススプラッティングのプロセスを強化する新しいアプローチである。
Intern-GSは多様なデータセットにまたがって最先端のレンダリング品質を実現する。
論文 参考訳(メタデータ) (2025-05-27T05:17:49Z) - FreeSplat++: Generalizable 3D Gaussian Splatting for Efficient Indoor Scene Reconstruction [50.534213038479926]
FreeSplat++は大規模な屋内全シーン再構築の代替手法である。
深度調整による微調整により,再現精度が大幅に向上し,トレーニング時間も大幅に短縮された。
論文 参考訳(メタデータ) (2025-03-29T06:22:08Z) - StreamGS: Online Generalizable Gaussian Splatting Reconstruction for Unposed Image Streams [32.91936079359693]
本稿では,非ポーズ画像ストリームのための3DGS再構成手法であるStreamGSを提案する。
StreamGSは、画像ストリームを3Dガウスストリームに変換する。
多様なデータセットの実験では、StreamGSは最適化ベースのアプローチと同等の品質を実現しているが、150倍高速であることが示された。
論文 参考訳(メタデータ) (2025-03-08T14:35:39Z) - Evolving High-Quality Rendering and Reconstruction in a Unified Framework with Contribution-Adaptive Regularization [27.509109317973817]
3D Gaussian Splatting (3DGS)は、高品質なレンダリングと高速な推論速度で注目されている。
従来の手法は主に幾何学的正則化に焦点を当てており、プリミティブベースのフレームワークやデュアルモデルフレームワークを含む一般的なアプローチがある。
本稿では,高画質表面再構成を実現するために,適応正規化を利用した統一モデルであるCarGSを提案する。
論文 参考訳(メタデータ) (2025-03-02T12:51:38Z) - CrossView-GS: Cross-view Gaussian Splatting For Large-scale Scene Reconstruction [5.528874948395173]
マルチブランチ構築と融合に基づく大規模シーン再構築のための新しいクロスビューガウス分割法を提案する。
本手法は,最先端の手法と比較して,新規なビュー合成における優れた性能を実現する。
論文 参考訳(メタデータ) (2025-01-03T08:24:59Z) - Radiant: Large-scale 3D Gaussian Rendering based on Hierarchical Framework [13.583584930991847]
大規模シーン再構成のための階層型3DGSアルゴリズムであるRadiantを提案する。
Radiantは、リビルド品質を最大25.7%改善し、エンドツーエンドのレイテンシを79.6%削減した。
論文 参考訳(メタデータ) (2024-12-07T05:48:00Z) - DGTR: Distributed Gaussian Turbo-Reconstruction for Sparse-View Vast Scenes [81.56206845824572]
新規ビュー合成(NVS)アプローチは、広大なシーン再構築において重要な役割を担っている。
大規模な環境下では、復元の質が悪くなる場合が少なくない。
本稿では,スパース・ビュー・ワイド・シーンのための効率的なガウス再構成のための分散フレームワークであるDGTRを提案する。
論文 参考訳(メタデータ) (2024-11-19T07:51:44Z) - DeSiRe-GS: 4D Street Gaussians for Static-Dynamic Decomposition and Surface Reconstruction for Urban Driving Scenes [71.61083731844282]
本稿では,自己教師型ガウススプラッティング表現であるDeSiRe-GSについて述べる。
複雑な駆動シナリオにおいて、効率的な静的・動的分解と高忠実な表面再構成を可能にする。
論文 参考訳(メタデータ) (2024-11-18T05:49:16Z) - MCGS: Multiview Consistency Enhancement for Sparse-View 3D Gaussian Radiance Fields [73.49548565633123]
3Dガウシアンによって表現される放射場は、高いトレーニング効率と高速レンダリングの両方を提供する、新しいビューの合成に優れている。
既存の手法では、高密度推定ネットワークからの奥行き先を組み込むことが多いが、入力画像に固有の多視点一貫性を見落としている。
本稿では,3次元ガウス・スプレイティング(MCGS)に基づくビュー・フレームワークを提案し,スパークス・インプット・ビューからシーンを再構築する。
論文 参考訳(メタデータ) (2024-10-15T08:39:05Z) - Implicit Gaussian Splatting with Efficient Multi-Level Tri-Plane Representation [45.582869951581785]
Implicit Gaussian Splatting (IGS)は、明示的なポイントクラウドと暗黙的な機能埋め込みを統合する革新的なハイブリッドモデルである。
本稿では,空間正規化を具体化したレベルベースプログレッシブトレーニング手法を提案する。
我々のアルゴリズムは、数MBしか使用せず、ストレージ効率とレンダリング忠実さを効果的にバランスして、高品質なレンダリングを実現することができる。
論文 参考訳(メタデータ) (2024-08-19T14:34:17Z) - GIFD: A Generative Gradient Inversion Method with Feature Domain
Optimization [52.55628139825667]
Federated Learning(FL)は、クライアントのプライバシを保護するための有望な分散機械学習フレームワークとして登場した。
近年の研究では、事前学習された生成逆ネットワーク(GAN)を事前知識として活用することにより、攻撃者が共有勾配を逆転し、FLシステムに対する機密データを回復できることが示されている。
textbfGradient textbfInversion over textbfFeature textbfDomains (GIFD)を提案する。
論文 参考訳(メタデータ) (2023-08-09T04:34:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。