論文の概要: Splatent: Splatting Diffusion Latents for Novel View Synthesis
- arxiv url: http://arxiv.org/abs/2512.09923v1
- Date: Wed, 10 Dec 2025 18:57:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.64799
- Title: Splatent: Splatting Diffusion Latents for Novel View Synthesis
- Title(参考訳): Splatent: Splatting Diffusion Latents for novel view synthesis
- Authors: Or Hirschorn, Omer Sela, Inbar Huberman-Spiegelglas, Netalee Efrat, Eli Alshan, Ianir Ideses, Frederic Devernay, Yochai Zvik, Lior Fritz,
- Abstract要約: 本稿では,VAEの潜伏空間における3次元ガウス散乱(3DGS)上での拡散に基づく拡張フレームワークであるSplatentについて述べる。
我々は3次元空間の細粒度を再構築する代わりに、多視点アテンション機構を通じて入力ビューから2次元に復元する。
- 参考スコア(独自算出の注目度): 6.338499852288994
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Radiance field representations have recently been explored in the latent space of VAEs that are commonly used by diffusion models. This direction offers efficient rendering and seamless integration with diffusion-based pipelines. However, these methods face a fundamental limitation: The VAE latent space lacks multi-view consistency, leading to blurred textures and missing details during 3D reconstruction. Existing approaches attempt to address this by fine-tuning the VAE, at the cost of reconstruction quality, or by relying on pre-trained diffusion models to recover fine-grained details, at the risk of some hallucinations. We present Splatent, a diffusion-based enhancement framework designed to operate on top of 3D Gaussian Splatting (3DGS) in the latent space of VAEs. Our key insight departs from the conventional 3D-centric view: rather than reconstructing fine-grained details in 3D space, we recover them in 2D from input views through multi-view attention mechanisms. This approach preserves the reconstruction quality of pretrained VAEs while achieving faithful detail recovery. Evaluated across multiple benchmarks, Splatent establishes a new state-of-the-art for VAE latent radiance field reconstruction. We further demonstrate that integrating our method with existing feed-forward frameworks, consistently improves detail preservation, opening new possibilities for high-quality sparse-view 3D reconstruction.
- Abstract(参考訳): 拡散モデルで一般的に用いられるVAEの潜在空間において、放射場表現が最近研究されている。
この方向は効率的なレンダリングと拡散ベースのパイプラインとのシームレスな統合を提供する。
しかし、これらの手法は基本的な制限に直面している: VAE潜伏空間はマルチビューの一貫性が欠如しており、3D再構成時にぼやけたテクスチャと詳細が欠けている。
既存のアプローチでは、VAEを微調整し、再建の質を犠牲にして、あるいは、いくつかの幻覚のリスクを伴って、詳細な詳細を再現するために事前訓練された拡散モデルに頼ることで、この問題に対処しようとしている。
本稿では,VAEの潜伏空間における3次元ガウス散乱(3DGS)上での拡散に基づく拡張フレームワークであるSplatentについて述べる。
我々は3次元空間の細粒度を再構築する代わりに、多視点アテンション機構を通じて入力ビューから2次元に復元する。
このアプローチは、忠実な詳細回復を達成しつつ、事前訓練されたVAEの復元品質を維持できる。
複数のベンチマークで評価され、SplatentはVAE潜在放射場再構成のための新しい最先端技術を確立する。
さらに,本手法を既存のフィードフォワードフレームワークに統合することにより,細部保存を継続的に改善し,高品質なスパースビュー3D再構成の可能性を明らかにする。
関連論文リスト
- ReconViaGen: Towards Accurate Multi-view 3D Object Reconstruction via Generation [28.308731720451053]
我々はReconViaGenを提案する。
我々のReconViaGenは、グローバルな構造と局所的な詳細の両方において、入力ビューと整合した完全かつ正確な3Dモデルを再構築できることを実証した。
論文 参考訳(メタデータ) (2025-10-27T13:15:06Z) - OracleGS: Grounding Generative Priors for Sparse-View Gaussian Splatting [78.70702961852119]
OracleGSは、Gaussian Splattingのスパースビューのために、生成的完全性と回帰的忠実性を調整している。
提案手法は,多視点幾何学的証拠に先立って強力な生成条件を定め,幻覚的アーティファクトをフィルタリングし,非拘束領域における可塑性完備を保存している。
論文 参考訳(メタデータ) (2025-09-27T11:19:32Z) - FixingGS: Enhancing 3D Gaussian Splatting via Training-Free Score Distillation [24.04452256357554]
スパースビュー3DGS再構成強化のためのトレーニング不要なFixingGSを提案する。
FixingGSの核心は蒸留法であり、より正確かつ相互にコヒーレントな拡散を先導する。
さらに,非拘束領域における再構成をさらに洗練する適応的漸進的拡張手法を提案する。
論文 参考訳(メタデータ) (2025-09-23T07:53:46Z) - RobustGS: Unified Boosting of Feedforward 3D Gaussian Splatting under Low-Quality Conditions [67.48495052903534]
本稿では,汎用的で効率的なマルチビュー機能拡張モジュールRobustGSを提案する。
各種の有害撮像条件下でのフィードフォワード3DGS法のロバスト性を大幅に向上させる。
RobustGSモジュールはプラグイン・アンド・プレイ方式で既存の事前訓練パイプラインにシームレスに統合できる。
論文 参考訳(メタデータ) (2025-08-05T04:50:29Z) - Difix3D+: Improving 3D Reconstructions with Single-Step Diffusion Models [65.90387371072413]
本稿では,3次元再構成と新規ビュー合成を向上する新しいパイプラインであるDifix3D+を紹介する。
このアプローチのコアとなるのは、レンダリングされた新規ビューにおけるアーティファクトの強化と削除のためにトレーニングされた、単一ステップのイメージ拡散モデルであるDifixです。
論文 参考訳(メタデータ) (2025-03-03T17:58:33Z) - MonoGSDF: Exploring Monocular Geometric Cues for Gaussian Splatting-Guided Implicit Surface Reconstruction [86.87464903285208]
高品質な再構成のための神経信号距離場(SDF)とプリミティブを結合する新しい手法であるMonoGSDFを紹介する。
任意のスケールのシーンを扱うために,ロバストな一般化のためのスケーリング戦略を提案する。
実世界のデータセットの実験は、効率を保ちながら、以前の方法よりも優れています。
論文 参考訳(メタデータ) (2024-11-25T20:07:07Z) - Sparse3D: Distilling Multiview-Consistent Diffusion for Object
Reconstruction from Sparse Views [47.215089338101066]
スパースビュー入力に適した新しい3D再構成手法であるスパース3Dを提案する。
提案手法は,多視点拡散モデルから頑健な先行情報を抽出し,ニューラルラディアンス場を改良する。
強力な画像拡散モデルから2Dプリエントをタップすることで、我々の統合モデルは、常に高品質な結果をもたらす。
論文 参考訳(メタデータ) (2023-08-27T11:52:00Z) - Deceptive-NeRF/3DGS: Diffusion-Generated Pseudo-Observations for High-Quality Sparse-View Reconstruction [60.52716381465063]
我々は,限られた入力画像のみを用いて,スパースビュー再構成を改善するために,Deceptive-NeRF/3DGSを導入した。
具体的には,少数視点再構成によるノイズ画像から高品質な擬似観測へ変換する,偽拡散モデルを提案する。
本システムでは,拡散生成擬似観測をトレーニング画像集合に徐々に組み込んで,スパース入力観測を5倍から10倍に高めている。
論文 参考訳(メタデータ) (2023-05-24T14:00:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。