論文の概要: SurfSplat: Conquering Feedforward 2D Gaussian Splatting with Surface Continuity Priors
- arxiv url: http://arxiv.org/abs/2602.02000v2
- Date: Tue, 03 Feb 2026 09:52:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 16:18:58.867388
- Title: SurfSplat: Conquering Feedforward 2D Gaussian Splatting with Surface Continuity Priors
- Title(参考訳): SurfSplat: フィードフォワード型2Dガウス型スプラッティングと表面連続性
- Authors: Bing He, Jingnan Gao, Yunuo Chen, Ning Cao, Gang Chen, Zhengxue Cheng, Li Song, Wenjun Zhang,
- Abstract要約: SurfSplatは2D Gaussian Splatting (2DGS)プリミティブに基づいたフィードフォワードフレームワークである。
表面の連続性を前もって組み込むことで、SurfSplatは忠実なテクスチャとともにコヒーレントな幾何学を再構築する。
HRRC(High-Resolution Rendering Consistency)は,高分解能の再現性を評価するための新しい評価指標である。
- 参考スコア(独自算出の注目度): 23.876164780443915
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Reconstructing 3D scenes from sparse images remains a challenging task due to the difficulty of recovering accurate geometry and texture without optimization. Recent approaches leverage generalizable models to generate 3D scenes using 3D Gaussian Splatting (3DGS) primitive. However, they often fail to produce continuous surfaces and instead yield discrete, color-biased point clouds that appear plausible at normal resolution but reveal severe artifacts under close-up views. To address this issue, we present SurfSplat, a feedforward framework based on 2D Gaussian Splatting (2DGS) primitive, which provides stronger anisotropy and higher geometric precision. By incorporating a surface continuity prior and a forced alpha blending strategy, SurfSplat reconstructs coherent geometry together with faithful textures. Furthermore, we introduce High-Resolution Rendering Consistency (HRRC), a new evaluation metric designed to evaluate high-resolution reconstruction quality. Extensive experiments on RealEstate10K, DL3DV, and ScanNet demonstrate that SurfSplat consistently outperforms prior methods on both standard metrics and HRRC, establishing a robust solution for high-fidelity 3D reconstruction from sparse inputs. Project page: https://hebing-sjtu.github.io/SurfSplat-website/
- Abstract(参考訳): スパース画像から3Dシーンを再構成することは、正確な形状やテクスチャを最適化せずに復元することが困難であるため、依然として難しい課題である。
近年のアプローチでは、一般化可能なモデルを用いて3Dガウススプラッティング(3DGS)プリミティブを用いて3Dシーンを生成する。
しかし、彼らはしばしば連続した表面を生成できず、代わりに通常の解像度で可視に見えるが、クローズアップビューの下で深刻な人工物を明らかにする、離散的で色偏りの点雲を生じる。
この問題に対処するために,2次元ガウススプラッティング(2DGS)プリミティブに基づくフィードフォワードフレームワークであるSurfSplatを提案する。
表面の連続性と強制的なアルファブレンディング戦略を組み込むことで、SurfSplatは忠実なテクスチャとともにコヒーレントな幾何学を再構築する。
さらに,高分解能再現性評価のための新しい評価指標である高分解能レンダリング一貫性(HRRC)を導入する。
RealEstate10K、DL3DV、ScanNetの大規模な実験により、SurfSplatは標準メトリクスとHRRCの両方の先行手法を一貫して上回り、スパース入力からの高忠実度3D再構成のための堅牢なソリューションを確立した。
プロジェクトページ: https://hebing-sjtu.github.io/SurfSplat-website/
関連論文リスト
- GauSSmart: Enhanced 3D Reconstruction through 2D Foundation Models and Geometric Filtering [50.675710727721786]
2次元基礎モデルと3次元ガウススプラッティング再構成をブリッジするハイブリッド手法であるGauSSmartを提案する。
提案手法は,凸フィルタリングや意味的特徴監視など,確立した2次元コンピュータビジョン技術を統合している。
GauSSmartは既存のGaussian Splattingよりも一貫して優れています。
論文 参考訳(メタデータ) (2025-10-16T03:38:26Z) - VolSplat: Rethinking Feed-Forward 3D Gaussian Splatting with Voxel-Aligned Prediction [45.95623374754385]
VolSplatは新しいマルチビューフィードフォワードパラダイムで、ピクセルアライメントとボクセルアライメントのガウスを置き換えている。
これは、画素アライメントがエラーを起こしやすい2D特徴マッチングに依存していることを克服し、堅牢なマルチビュー一貫性を確保する。
RealEstate10KやScanNetなど、広く使用されているベンチマークの実験では、VolSplatが最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2025-09-23T17:59:02Z) - SurfaceSplat: Connecting Surface Reconstruction and Gaussian Splatting [92.13737830605902]
スパースビュー画像による表面再構成と新しいビューレンダリングは困難である。
両手法の強みを組み合わせた新しいハイブリッド手法を提案する。
提案手法はDTUおよびMobileBrickデータセット上でのサーフェス再構成と新しいビュー合成における最先端のアプローチを超越した手法である。
論文 参考訳(メタデータ) (2025-07-21T13:25:03Z) - SparSplat: Fast Multi-View Reconstruction with Generalizable 2D Gaussian Splatting [7.9061560322289335]
スパースビュー画像から3次元形状再構成とNVSを行うために、フィードフォワード方式で2DGS表面パラメータを回帰するMVSベースの学習を提案する。
結果として得られるパイプラインは、DTU 3D再構築ベンチマークにおける最先端の成果を、最先端のNVSと同様に、チャンファーから地底までの距離で達成する。
論文 参考訳(メタデータ) (2025-05-04T16:33:47Z) - EVolSplat: Efficient Volume-based Gaussian Splatting for Urban View Synthesis [61.1662426227688]
既存のNeRFおよび3DGSベースの手法は、フォトリアリスティックレンダリングを実現する上で有望な結果を示すが、スローでシーンごとの最適化が必要である。
本稿では,都市景観を対象とした効率的な3次元ガウススプレイティングモデルEVolSplatを紹介する。
論文 参考訳(メタデータ) (2025-03-26T02:47:27Z) - SelfSplat: Pose-Free and 3D Prior-Free Generalizable 3D Gaussian Splatting [4.121797302827049]
ポーズフリーで3次元の事前自由な一般化可能な3次元再構成を実現するための新しい3次元ガウススプラッティングモデルであるSelfSplatを提案する。
本モデルでは,これらの課題に対して,自己教師付き深度とポーズ推定手法を効果的に統合することによって対処する。
提案手法の性能を評価するため,RealEstate10K,ACID,DL3DVなどの大規模実世界のデータセットを用いて評価を行った。
論文 参考訳(メタデータ) (2024-11-26T08:01:50Z) - MonoGSDF: Exploring Monocular Geometric Cues for Gaussian Splatting-Guided Implicit Surface Reconstruction [86.87464903285208]
高品質な再構成のための神経信号距離場(SDF)とプリミティブを結合する新しい手法であるMonoGSDFを紹介する。
任意のスケールのシーンを扱うために,ロバストな一般化のためのスケーリング戦略を提案する。
実世界のデータセットの実験は、効率を保ちながら、以前の方法よりも優れています。
論文 参考訳(メタデータ) (2024-11-25T20:07:07Z) - GeoSplatting: Towards Geometry Guided Gaussian Splatting for Physically-based Inverse Rendering [69.67264955234494]
GeoSplattingは、3DGSを精密な光輸送モデリングのための明確な幾何学的ガイダンスで拡張する新しいアプローチである。
最適化可能なメッシュから表面積の3DGSを微分的に構築することにより、明確に定義されたメッシュ正規と不透明なメッシュ表面を利用する。
この強化により、3DGSの効率性と高品質なレンダリング能力を保ちながら、正確な材料分解が保証される。
論文 参考訳(メタデータ) (2024-10-31T17:57:07Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - 2D Gaussian Splatting for Geometrically Accurate Radiance Fields [50.056790168812114]
3D Gaussian Splatting (3DGS)は近年,高画質の新規ビュー合成と高速レンダリングを実現し,放射界再構成に革命をもたらした。
多視点画像から幾何学的精度の高い放射場をモデル化・再構成するための新しいアプローチである2DGS(2D Gaussian Splatting)を提案する。
競合する外観品質、高速トレーニング速度、リアルタイムレンダリングを維持しつつ、ノイズフリーかつ詳細な幾何学的再構成を可能にする。
論文 参考訳(メタデータ) (2024-03-26T17:21:24Z) - Text-to-3D using Gaussian Splatting [18.163413810199234]
本稿では,最新の最先端表現であるガウススプラッティングをテキストから3D生成に適用する新しい手法であるGSGENを提案する。
GSGENは、高品質な3Dオブジェクトを生成し、ガウススティングの明示的な性質を活用することで既存の欠点に対処することを目的としている。
我々の手法は繊細な細部と正確な形状で3Dアセットを生成することができる。
論文 参考訳(メタデータ) (2023-09-28T16:44:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。