論文の概要: GSFixer: Improving 3D Gaussian Splatting with Reference-Guided Video Diffusion Priors
- arxiv url: http://arxiv.org/abs/2508.09667v1
- Date: Wed, 13 Aug 2025 09:56:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 20:42:00.848469
- Title: GSFixer: Improving 3D Gaussian Splatting with Reference-Guided Video Diffusion Priors
- Title(参考訳): GSFixer: 基準誘導ビデオ拡散プリミティブによる3次元ガウス散乱の改善
- Authors: Xingyilang Yin, Qi Zhang, Jiahao Chang, Ying Feng, Qingnan Fan, Xi Yang, Chi-Man Pun, Huaqi Zhang, Xiaodong Cun,
- Abstract要約: GSFixerは、スパース入力から再構築された3DGS表現の品質を改善するために設計されたフレームワークである。
本モデルは,視覚幾何学基礎モデルから抽出した参照ビューの2次元意味的特徴と3次元幾何学的特徴を統合した。
3DGSアーティファクト復元評価のための適切なベンチマークが欠如していることを踏まえ,低品質な3DGSを用いてレンダリングされたアーティファクトフレームを含むDL3DV-Resを提案する。
- 参考スコア(独自算出の注目度): 44.901133648775605
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reconstructing 3D scenes using 3D Gaussian Splatting (3DGS) from sparse views is an ill-posed problem due to insufficient information, often resulting in noticeable artifacts. While recent approaches have sought to leverage generative priors to complete information for under-constrained regions, they struggle to generate content that remains consistent with input observations. To address this challenge, we propose GSFixer, a novel framework designed to improve the quality of 3DGS representations reconstructed from sparse inputs. The core of our approach is the reference-guided video restoration model, built upon a DiT-based video diffusion model trained on paired artifact 3DGS renders and clean frames with additional reference-based conditions. Considering the input sparse views as references, our model integrates both 2D semantic features and 3D geometric features of reference views extracted from the visual geometry foundation model, enhancing the semantic coherence and 3D consistency when fixing artifact novel views. Furthermore, considering the lack of suitable benchmarks for 3DGS artifact restoration evaluation, we present DL3DV-Res which contains artifact frames rendered using low-quality 3DGS. Extensive experiments demonstrate our GSFixer outperforms current state-of-the-art methods in 3DGS artifact restoration and sparse-view 3D reconstruction. Project page: https://github.com/GVCLab/GSFixer.
- Abstract(参考訳): スパースビューから3Dガウススプラッティング(3DGS)を用いて3Dシーンを再構成することは、情報不足による不適切な問題であり、しばしば顕著なアーティファクトをもたらす。
近年のアプローチでは、制約の少ない領域の完全な情報を得るために、生成前の先進的情報を活用することを目指しているが、彼らは入力観察と整合したコンテンツを生成するのに苦労している。
この課題に対処するために,スパース入力から再構成した3DGS表現の品質向上を目的とした新しいフレームワークであるGSFixerを提案する。
提案手法のコアとなるのは参照誘導ビデオ復元モデルであり,2つのアーティファクト3DGSレンダリングと,追加の参照ベース条件でクリーンフレームをトレーニングしたDiTベースのビデオ拡散モデルに基づいている。
入力スパースビューを参照として考慮し、視覚幾何学基礎モデルから抽出した参照ビューの2次元意味的特徴と3次元幾何学的特徴を統合し、アーティファクトの新規ビューを固定する際のセマンティックコヒーレンスと3次元一貫性を向上させる。
さらに, 3DGSアーティファクト復元評価のための適切なベンチマークが欠如していることから, 低品質な3DGSを用いてレンダリングされたアーティファクトフレームを含むDL3DV-Resを提案する。
GSFixerは3DGSアーティファクト修復とスパースビュー3D再構成において,現在の最先端手法よりも優れた性能を示す。
プロジェクトページ:https://github.com/GVCLab/GSFixer.com
関連論文リスト
- DIP-GS: Deep Image Prior For Gaussian Splatting Sparse View Recovery [31.43307762723943]
3D Gaussian Splatting (3DGS) は3次元シーン再構築の先駆けとなる手法であり, リアルタイムレンダリング性能で高品質な再現を実現する。
多くのビューの存在下で優れたパフォーマンスを達成する一方で、3DGSはスパースビューの再構築に苦慮し、入力ビューはスパースで、シーンを完全にカバーせず、オーバーラップも少ない。
本稿では,Deep Image Prior (DIP) 3DGS表現であるDIP-GSを提案する。
論文 参考訳(メタデータ) (2025-08-10T14:47:32Z) - ExploreGS: Explorable 3D Scene Reconstruction with Virtual Camera Samplings and Diffusion Priors [37.455535904703204]
本稿では3DGSをベースとしたパイプラインを提案し,再現性を高めるための追加のトレーニングビューを生成する。
細調整された3Dガウスの視界は、再建の質を著しく向上させる。
実験により,本手法は既存の3DGS法よりも優れていることが示された。
論文 参考訳(メタデータ) (2025-08-08T05:01:17Z) - 3DGS-Enhancer: Enhancing Unbounded 3D Gaussian Splatting with View-consistent 2D Diffusion Priors [13.191199172286508]
新規ビュー合成は、複数の入力画像やビデオからシーンの新しいビューを生成することを目的としている。
3DGS-Enhancerは、3DGS表現の表現品質を向上させるための新しいパイプラインである。
論文 参考訳(メタデータ) (2024-10-21T17:59:09Z) - GSD: View-Guided Gaussian Splatting Diffusion for 3D Reconstruction [52.04103235260539]
単一視点からの3次元オブジェクト再構成のためのガウススプティング表現に基づく拡散モデル手法を提案する。
モデルはGS楕円体の集合で表される3Dオブジェクトを生成することを学習する。
最終的な再構成されたオブジェクトは、高品質な3D構造とテクスチャを持ち、任意のビューで効率的にレンダリングできる。
論文 参考訳(メタデータ) (2024-07-05T03:43:08Z) - SAGS: Structure-Aware 3D Gaussian Splatting [53.6730827668389]
本研究では,シーンの形状を暗黙的に符号化する構造認識型ガウス散乱法(SAGS)を提案する。
SAGSは、最先端のレンダリング性能と、ベンチマークノベルビュー合成データセットのストレージ要件の削減を反映している。
論文 参考訳(メタデータ) (2024-04-29T23:26:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。