論文の概要: Multimodal-Prior-Guided Importance Sampling for Hierarchical Gaussian Splatting in Sparse-View Novel View Synthesis
- arxiv url: http://arxiv.org/abs/2603.02866v1
- Date: Tue, 03 Mar 2026 11:19:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.76268
- Title: Multimodal-Prior-Guided Importance Sampling for Hierarchical Gaussian Splatting in Sparse-View Novel View Synthesis
- Title(参考訳): スパースビュー新規ビュー合成における階層型ガウス平滑化のためのマルチモーダルパラメータ誘導重要サンプリング
- Authors: Kaiqiang Xiong, Zhanke Wang, Ronggang Wang,
- Abstract要約: スパースビュー新規ビュー合成における階層型3次元ガウススプラッティング(3DGS)の中心メカニズムとして,多モード優先重要サンプリングを提案する。
本フレームワークは,(1)大域的な形状を安定な粗い層でエンコードする粗いガウス表現と,多モード計量が復元可能な詳細を示すような微細なプリミティブを選択的に追加する。
多様なスパースビューベンチマークの実験では、DTUに最大0.3dBのPSNRを持つ最先端の再構築が示されている。
- 参考スコア(独自算出の注目度): 29.048045656420538
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present multimodal-prior-guided importance sampling as the central mechanism for hierarchical 3D Gaussian Splatting (3DGS) in sparse-view novel view synthesis. Our sampler fuses complementary cues { -- } photometric rendering residuals, semantic priors, and geometric priors { -- } to produce a robust, local recoverability estimate that directly drives where to inject fine Gaussians. Built around this sampling core, our framework comprises (1) a coarse-to-fine Gaussian representation that encodes global shape with a stable coarse layer and selectively adds fine primitives where the multimodal metric indicates recoverable detail; and (2) a geometric-aware sampling and retention policy that concentrates refinement on geometrically critical and complex regions while protecting newly added primitives in underconstrained areas from premature pruning. By prioritizing regions supported by consistent multimodal evidence rather than raw residuals alone, our method alleviates overfitting texture-induced errors and suppresses noise from pose/appearance inconsistencies. Experiments on diverse sparse-view benchmarks demonstrate state-of-the-art reconstructions, with up to +0.3 dB PSNR on DTU.
- Abstract(参考訳): スパースビュー新規ビュー合成における階層型3次元ガウススプラッティング(3DGS)の中心メカニズムとして,多モード優先重要サンプリングを提案する。
我々のサンプルは、補足的なcues { -- } 光メトリックレンダリング残差、セマンティックプリエント、幾何学的プリエント { -- } を融合させ、きめ細かいガウスを注入する場所を直接駆動する堅牢で局所的な回復可能性の推定値を生成する。
本フレームワークは,(1)大域的な形状を安定な粗い層でエンコードし,多モード距離が再現可能な詳細を示すような微細なプリミティブを選択的に付加する粗大なガウス表現と,(2)未熟なプルーニングから新たに追加されたプリミティブを保護しつつ,幾何学的に重要な領域と複雑な領域に改良を集中させる幾何的サンプリング・保持ポリシーとから構成される。
本手法は,残差のみではなく,一貫したマルチモーダルエビデンスによって支持される領域を優先することにより,テクスチャによる過度な誤りを軽減し,ポーズ/外観の不整合からノイズを抑制する。
多様なスパースビューベンチマークの実験では、DTUに最大0.3dBのPSNRを持つ最先端の再構築が示されている。
関連論文リスト
- Analysis of Converged 3D Gaussian Splatting Solutions: Density Effects and Prediction Limit [26.560853188856342]
標準的な多視点最適化から3次元ガウススプラッティング(3DGS)の解にどのような構造が現れるかを検討する。
密度領域は、レンダリング不要な予測が可能な幾何学的関連パラメータを示し、スパース領域は体系的な失敗を示す。
点雲が十分である幾何学的プリミティブと、多視点制約が不可欠であるビュー合成プリミティブである。
論文 参考訳(メタデータ) (2026-02-09T17:09:08Z) - One-Shot Refiner: Boosting Feed-forward Novel View Synthesis via One-Step Diffusion [57.824020826432815]
スパース画像から高忠実性ノベルビュー合成(NVS)を実現するための新しいフレームワークを提案する。
ViTバックボーンによって制限されることなく高解像度画像を処理できるデュアルドメイン詳細知覚モジュールを設計する。
我々は,修復過程において高周波の詳細を保存できる特徴誘導拡散ネットワークを開発した。
論文 参考訳(メタデータ) (2026-01-20T17:11:55Z) - Gesplat: Robust Pose-Free 3D Reconstruction via Geometry-Guided Gaussian Splatting [21.952325954391508]
本稿では、3DGSベースのフレームワークであるGesplatを紹介し、ロバストな新しいビュー合成と、未提示のスパース画像からの幾何的に一貫した再構成を可能にする。
提案手法は,他のポーズフリー手法と比較して,前方および大規模の複雑なデータセット上でより堅牢な性能を実現する。
論文 参考訳(メタデータ) (2025-10-11T08:13:46Z) - OracleGS: Grounding Generative Priors for Sparse-View Gaussian Splatting [78.70702961852119]
OracleGSは、Gaussian Splattingのスパースビューのために、生成的完全性と回帰的忠実性を調整している。
提案手法は,多視点幾何学的証拠に先立って強力な生成条件を定め,幻覚的アーティファクトをフィルタリングし,非拘束領域における可塑性完備を保存している。
論文 参考訳(メタデータ) (2025-09-27T11:19:32Z) - Metropolis-Hastings Sampling for 3D Gaussian Reconstruction [31.840492077537018]
3次元ガウス平滑化のための適応型サンプリングフレームワーク(3DGS)を提案する。
我々の枠組みは, 確率的サンプリングプロセスとして, デンシフィケーションとプルーニングを改質することで限界を克服する。
提案手法は,最先端モデルのビュー合成品質を適度に上回りながら,より高速な収束を実現する。
論文 参考訳(メタデータ) (2025-06-15T19:12:37Z) - MonoGSDF: Exploring Monocular Geometric Cues for Gaussian Splatting-Guided Implicit Surface Reconstruction [86.87464903285208]
高品質な再構成のための神経信号距離場(SDF)とプリミティブを結合する新しい手法であるMonoGSDFを紹介する。
任意のスケールのシーンを扱うために,ロバストな一般化のためのスケーリング戦略を提案する。
実世界のデータセットの実験は、効率を保ちながら、以前の方法よりも優れています。
論文 参考訳(メタデータ) (2024-11-25T20:07:07Z) - DGTR: Distributed Gaussian Turbo-Reconstruction for Sparse-View Vast Scenes [81.56206845824572]
新規ビュー合成(NVS)アプローチは、広大なシーン再構築において重要な役割を担っている。
大規模な環境下では、復元の質が悪くなる場合が少なくない。
本稿では,スパース・ビュー・ワイド・シーンのための効率的なガウス再構成のための分散フレームワークであるDGTRを提案する。
論文 参考訳(メタデータ) (2024-11-19T07:51:44Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - MCGS: Multiview Consistency Enhancement for Sparse-View 3D Gaussian Radiance Fields [100.90743697473232]
3Dガウシアンによって表現される放射場は、高いトレーニング効率と高速レンダリングの両方を提供する、新しいビューの合成に優れている。
既存の手法では、高密度推定ネットワークからの奥行き先を組み込むことが多いが、入力画像に固有の多視点一貫性を見落としている。
スパースビューからのシーン再構成が可能な3次元ガウススプラッティングに基づくビュー合成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-15T08:39:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。