論文の概要: GIFSplat: Generative Prior-Guided Iterative Feed-Forward 3D Gaussian Splatting from Sparse Views
- arxiv url: http://arxiv.org/abs/2602.22571v1
- Date: Thu, 26 Feb 2026 03:25:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.506167
- Title: GIFSplat: Generative Prior-Guided Iterative Feed-Forward 3D Gaussian Splatting from Sparse Views
- Title(参考訳): GIFSplat:スパークビューからのフィードフォワード3Dガウス撮影
- Authors: Tianyu Chen, Wei Xiang, Kang Han, Yu Lu, Di Wu, Gaowen Liu, Ramana Rao Kompella,
- Abstract要約: GIFSplatは、純粋なフィードフォワード・イテレーティブ・リファインメント・フレームワークで、3Dガウシアン・リファインティングをスパース・アンポーズ・ビューから行う。
DL3DV、RealEstate10K、DTUで、最先端のフィードフォワードベースラインを一貫して上回る。
カメラのポーズやテスト時間勾配の最適化を必要とせずに、第2スケールの推論時間を維持する。
- 参考スコア(独自算出の注目度): 44.787835922271135
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Feed-forward 3D reconstruction offers substantial runtime advantages over per-scene optimization, which remains slow at inference and often fragile under sparse views. However, existing feed-forward methods still have potential for further performance gains, especially for out-of-domain data, and struggle to retain second-level inference time once a generative prior is introduced. These limitations stem from the one-shot prediction paradigm in existing feed-forward pipeline: models are strictly bounded by capacity, lack inference-time refinement, and are ill-suited for continuously injecting generative priors. We introduce GIFSplat, a purely feed-forward iterative refinement framework for 3D Gaussian Splatting from sparse unposed views. A small number of forward-only residual updates progressively refine current 3D scene using rendering evidence, achieve favorable balance between efficiency and quality. Furthermore, we distill a frozen diffusion prior into Gaussian-level cues from enhanced novel renderings without gradient backpropagation or ever-increasing view-set expansion, thereby enabling per-scene adaptation with generative prior while preserving feed-forward efficiency. Across DL3DV, RealEstate10K, and DTU, GIFSplat consistently outperforms state-of-the-art feed-forward baselines, improving PSNR by up to +2.1 dB, and it maintains second-scale inference time without requiring camera poses or any test-time gradient optimization.
- Abstract(参考訳): フィードフォワード(Feed-forward)3D再構成は、推論が遅いままで、スパースビュー下では壊れやすい、シーンごとの最適化よりも、実行時の大きなアドバンテージを提供する。
しかし、既存のフィードフォワード法は、特にドメイン外のデータにおいて、さらなるパフォーマンス向上の可能性を秘めている。
これらの制限は、既存のフィードフォワードパイプラインにおけるワンショット予測パラダイムに起因している。
GIFSplat(GIFSplat)は、3Dガウススプラッティングのための純粋にフィードフォワードの反復的改良フレームワークである。
少数のフォワードオンリーの残差更新は、レンダリングエビデンスを使用して、現在の3Dシーンを徐々に洗練し、効率と品質の良好なバランスを得る。
さらに, 傾斜バックプロパゲーションや常に増大するビューセット展開を伴わない改良された新規レンダリングからガウス級キューへの凍結拡散を蒸留することにより, フィードフォワード効率を保ちつつ, 生成前のシーンごとの適応を可能にする。
DL3DV、RealEstate10K、DTU全体では、GIFSplatは最新式のフィードフォワードベースラインを一貫して上回り、PSNRを+2.1dBまで改善し、カメラのポーズやテスト時間勾配の最適化を必要とせずに第2スケールの推論時間を維持する。
関連論文リスト
- EcoSplat: Efficiency-controllable Feed-forward 3D Gaussian Splatting from Multi-view Images [39.67757218876105]
EcoSplatはフィードフォワード3DGSフレームワークで、任意のターゲットプリミティブカウントの3D表現を推論時に適応的に予測する。
EcoSplatは、厳密なプリミティブな制約の下で、堅牢で最先端のメソッドよりも優れていることを示す。
論文 参考訳(メタデータ) (2025-12-21T11:12:48Z) - RobustSplat: Decoupling Densification and Dynamics for Transient-Free 3DGS [79.15416002879239]
3D Gaussian Splattingは、ノベルビュー合成と3Dモデリングにおけるリアルタイム、フォトリアリスティックレンダリングにおいて大きな注目を集めている。
既存の手法は、過渡的なオブジェクトに影響されたシーンを正確にモデル化するのに苦労し、描画された画像のアーティファクトに繋がる。
2つの重要な設計に基づく堅牢なソリューションであるRobustSplatを提案する。
論文 参考訳(メタデータ) (2025-06-03T11:13:48Z) - Intern-GS: Vision Model Guided Sparse-View 3D Gaussian Splatting [95.61137026932062]
Intern-GSはスパースビューガウススプラッティングのプロセスを強化する新しいアプローチである。
Intern-GSは多様なデータセットにまたがって最先端のレンダリング品質を実現する。
論文 参考訳(メタデータ) (2025-05-27T05:17:49Z) - LL-Gaussian: Low-Light Scene Reconstruction and Enhancement via Gaussian Splatting for Novel View Synthesis [17.470869402542533]
低照度シーンにおける新しいビュー合成(NVS)は、劣化した入力のために重要な課題である。
低照度sRGB画像からの3次元再構成と拡張のための新しいフレームワークであるLL-Gaussianを提案する。
最先端のNeRFベースの手法と比較して、LL-Gaussianは最大2000倍高速な推論を実現し、トレーニング時間を2%に短縮する。
論文 参考訳(メタデータ) (2025-04-14T15:39:31Z) - FreeSplat++: Generalizable 3D Gaussian Splatting for Efficient Indoor Scene Reconstruction [50.534213038479926]
FreeSplat++は大規模な屋内全シーン再構築の代替手法である。
深度調整による微調整により,再現精度が大幅に向上し,トレーニング時間も大幅に短縮された。
論文 参考訳(メタデータ) (2025-03-29T06:22:08Z) - How to Use Diffusion Priors under Sparse Views? [29.738350228085928]
Inline Prior Guided Score Matching is proposed to provide visual supervision over sparse view in 3D reconstruction。
提案手法は,最先端の復元品質を実現する。
論文 参考訳(メタデータ) (2024-12-03T07:31:54Z) - ALOcc: Adaptive Lifting-Based 3D Semantic Occupancy and Cost Volume-Based Flow Predictions [91.55655961014027]
シーン理解には3次元セマンティック占有とフロー予測が不可欠である。
本稿では,3つの改善点を目標とした視覚ベースのフレームワークを提案する。
我々の純粋な畳み込みアーキテクチャは、セマンティック占有率とジョイントセマンティックフロー予測の両方のために、複数のベンチマーク上で新しいSOTA性能を確立する。
論文 参考訳(メタデータ) (2024-11-12T11:32:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。