論文の概要: FixingGS: Enhancing 3D Gaussian Splatting via Training-Free Score Distillation
- arxiv url: http://arxiv.org/abs/2509.18759v1
- Date: Tue, 23 Sep 2025 07:53:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.759033
- Title: FixingGS: Enhancing 3D Gaussian Splatting via Training-Free Score Distillation
- Title(参考訳): FixingGS: トレーニングフリーのスコア蒸留による3Dガウスめっきの強化
- Authors: Zhaorui Wang, Yi Gu, Deming Zhou, Renjing Xu,
- Abstract要約: スパースビュー3DGS再構成強化のためのトレーニング不要なFixingGSを提案する。
FixingGSの核心は蒸留法であり、より正確かつ相互にコヒーレントな拡散を先導する。
さらに,非拘束領域における再構成をさらに洗練する適応的漸進的拡張手法を提案する。
- 参考スコア(独自算出の注目度): 24.04452256357554
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, 3D Gaussian Splatting (3DGS) has demonstrated remarkable success in 3D reconstruction and novel view synthesis. However, reconstructing 3D scenes from sparse viewpoints remains highly challenging due to insufficient visual information, which results in noticeable artifacts persisting across the 3D representation. To address this limitation, recent methods have resorted to generative priors to remove artifacts and complete missing content in under-constrained areas. Despite their effectiveness, these approaches struggle to ensure multi-view consistency, resulting in blurred structures and implausible details. In this work, we propose FixingGS, a training-free method that fully exploits the capabilities of the existing diffusion model for sparse-view 3DGS reconstruction enhancement. At the core of FixingGS is our distillation approach, which delivers more accurate and cross-view coherent diffusion priors, thereby enabling effective artifact removal and inpainting. In addition, we propose an adaptive progressive enhancement scheme that further refines reconstructions in under-constrained regions. Extensive experiments demonstrate that FixingGS surpasses existing state-of-the-art methods with superior visual quality and reconstruction performance. Our code will be released publicly.
- Abstract(参考訳): 近年, 3D Gaussian Splatting (3DGS) は3D再構成と新規なビュー合成において顕著な成功を収めている。
しかし, 視覚情報不足のため, 疎遠な視点から3Dシーンを再構築することは, 3D表現全体にわたって顕著な成果をもたらすため, 依然として極めて困難である。
この制限に対処するために、近年の手法は、人工物を取り除き、制約の少ない領域で欠落したコンテンツを完全に除去するために、生成以前の方法に頼っている。
それらの効果にもかかわらず、これらのアプローチはマルチビューの一貫性を確保するのに苦労し、その結果、ぼやけた構造と不可解な詳細をもたらす。
本研究では,スパースビュー3DGS再構成拡張のための既存の拡散モデルの能力をフル活用した,トレーニング不要なFixingGSを提案する。
FixingGSの核心となるのは蒸留法であり、より正確で相互参照のコヒーレントな拡散を先取りし、効率的なアーティファクト除去と塗布を可能にする。
さらに,非拘束領域における再構成をさらに洗練する適応的漸進的拡張手法を提案する。
広汎な実験により、FixingGSは既存の最先端の手法を超越し、視覚的品質と再構築性能が向上した。
私たちのコードは公開されます。
関連論文リスト
- Splatent: Splatting Diffusion Latents for Novel View Synthesis [6.338499852288994]
本稿では,VAEの潜伏空間における3次元ガウス散乱(3DGS)上での拡散に基づく拡張フレームワークであるSplatentについて述べる。
我々は3次元空間の細粒度を再構築する代わりに、多視点アテンション機構を通じて入力ビューから2次元に復元する。
論文 参考訳(メタデータ) (2025-12-10T18:57:04Z) - ExploreGS: Explorable 3D Scene Reconstruction with Virtual Camera Samplings and Diffusion Priors [37.455535904703204]
本稿では3DGSをベースとしたパイプラインを提案し,再現性を高めるための追加のトレーニングビューを生成する。
細調整された3Dガウスの視界は、再建の質を著しく向上させる。
実験により,本手法は既存の3DGS法よりも優れていることが示された。
論文 参考訳(メタデータ) (2025-08-08T05:01:17Z) - RobustGS: Unified Boosting of Feedforward 3D Gaussian Splatting under Low-Quality Conditions [67.48495052903534]
本稿では,汎用的で効率的なマルチビュー機能拡張モジュールRobustGSを提案する。
各種の有害撮像条件下でのフィードフォワード3DGS法のロバスト性を大幅に向上させる。
RobustGSモジュールはプラグイン・アンド・プレイ方式で既存の事前訓練パイプラインにシームレスに統合できる。
論文 参考訳(メタデータ) (2025-08-05T04:50:29Z) - Intern-GS: Vision Model Guided Sparse-View 3D Gaussian Splatting [95.61137026932062]
Intern-GSはスパースビューガウススプラッティングのプロセスを強化する新しいアプローチである。
Intern-GSは多様なデータセットにまたがって最先端のレンダリング品質を実現する。
論文 参考訳(メタデータ) (2025-05-27T05:17:49Z) - AAA-Gaussians: Anti-Aliased and Artifact-Free 3D Gaussian Rendering [8.972911362220803]
エイリアスを緩和する適応型3次元平滑化フィルタを導入し,安定なビュー空間境界法を提案する。
本評価では, エイリアス, 歪み, ポップアップアーティファクトを効果的に除去し, リアルタイム, アーティファクトフリーなレンダリングを実現する。
論文 参考訳(メタデータ) (2025-04-17T10:16:47Z) - FreeSplat++: Generalizable 3D Gaussian Splatting for Efficient Indoor Scene Reconstruction [50.534213038479926]
FreeSplat++は大規模な屋内全シーン再構築の代替手法である。
深度調整による微調整により,再現精度が大幅に向上し,トレーニング時間も大幅に短縮された。
論文 参考訳(メタデータ) (2025-03-29T06:22:08Z) - Decompositional Neural Scene Reconstruction with Generative Diffusion Prior [64.71091831762214]
完全な形状と詳細なテクスチャを持つ3次元シーンの分解的再構成は、下流の応用に興味深い。
近年のアプローチでは、この問題に対処するために意味的あるいは幾何学的正則化が取り入れられているが、制約の少ない領域では著しく劣化している。
本稿では,SDS(Score Distillation Sampling)の形で拡散先行値を用いたDP-Reconを提案し,新しい視点下で個々の物体の神経表現を最適化する。
論文 参考訳(メタデータ) (2025-03-19T02:11:31Z) - StructGS: Adaptive Spherical Harmonics and Rendering Enhancements for Superior 3D Gaussian Splatting [5.759434800012218]
StructGS は 3D Gaussian Splatting (3DGS) を強化し、3D再構成における新規なビュー合成を改善するフレームワークである。
我々のフレームワークは計算冗長性を著しく低減し、ディテールキャプチャを強化し、低解像度入力からの高解像度レンダリングをサポートする。
論文 参考訳(メタデータ) (2025-03-09T05:39:44Z) - Difix3D+: Improving 3D Reconstructions with Single-Step Diffusion Models [65.90387371072413]
本稿では,3次元再構成と新規ビュー合成を向上する新しいパイプラインであるDifix3D+を紹介する。
このアプローチのコアとなるのは、レンダリングされた新規ビューにおけるアーティファクトの強化と削除のためにトレーニングされた、単一ステップのイメージ拡散モデルであるDifixです。
論文 参考訳(メタデータ) (2025-03-03T17:58:33Z) - ResGS: Residual Densification of 3D Gaussian for Efficient Detail Recovery [11.706262924395768]
そこで我々は, 残留分断法を新たに導入し, 残留分断法としてガウシアンを付加した。
我々のアプローチは、詳細を適応的に検索し、欠落した幾何学を補完することができる。
論文 参考訳(メタデータ) (2024-12-10T13:19:27Z) - Beyond Gaussians: Fast and High-Fidelity 3D Splatting with Linear Kernels [51.08794269211701]
本稿では,ガウスカーネルを線形カーネルに置き換えて,よりシャープで高精度な結果を得る3Dリニアスティング(DLS)を提案する。
3DLSは、最先端の忠実さと正確さを示し、ベースライン3DGSよりも30%のFPS改善を実現している。
論文 参考訳(メタデータ) (2024-11-19T11:59:54Z) - Bootstrap-GS: Self-Supervised Augmentation for High-Fidelity Gaussian Splatting [9.817215106596146]
3D-GSは、トレーニング中に遭遇したものとは大きく異なる、新しいビューを生成する際に制限に直面します。
この問題に対処するためのブートストラップフレームワークを導入します。
提案手法は,限られたトレーニングセットと整合した新しい視点から,擬似地下真実を合成する。
論文 参考訳(メタデータ) (2024-04-29T12:57:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。