論文の概要: FSFSplatter: Build Surface and Novel Views with Sparse-Views within 3min
- arxiv url: http://arxiv.org/abs/2510.02691v1
- Date: Fri, 03 Oct 2025 03:17:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 16:35:52.249067
- Title: FSFSplatter: Build Surface and Novel Views with Sparse-Views within 3min
- Title(参考訳): FSFSplatter: 3分以内のスパースビューでサーフェスと新しいビューを構築する
- Authors: Yibin Zhao, Yihan Pan, Jun Nan, Jianjun Yi,
- Abstract要約: 自由なスパース画像から再構成すると、オーバーフィッティングやオーバーフィッティングが制限されるため、表面が貧弱になることが多い。
自由スパース画像からの高速表面再構成のための新しいアプローチであるFSFSplatterを導入する。
- 参考スコア(独自算出の注目度): 0.33832080469951586
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Gaussian Splatting has become a leading reconstruction technique, known for its high-quality novel view synthesis and detailed reconstruction. However, most existing methods require dense, calibrated views. Reconstructing from free sparse images often leads to poor surface due to limited overlap and overfitting. We introduce FSFSplatter, a new approach for fast surface reconstruction from free sparse images. Our method integrates end-to-end dense Gaussian initialization, camera parameter estimation, and geometry-enhanced scene optimization. Specifically, FSFSplatter employs a large Transformer to encode multi-view images and generates a dense and geometrically consistent Gaussian scene initialization via a self-splitting Gaussian head. It eliminates local floaters through contribution-based pruning and mitigates overfitting to limited views by leveraging depth and multi-view feature supervision with differentiable camera parameters during rapid optimization. FSFSplatter outperforms current state-of-the-art methods on widely used DTU and Replica.
- Abstract(参考訳): ガウシアン・スプレイティングは、高品質の新規ビュー合成と詳細な再構築で知られ、主要な再建技術となっている。
しかし、既存の手法のほとんどは、密集したキャリブレーションされたビューを必要とする。
自由なスパース画像から再構成すると、オーバーフィッティングやオーバーフィッティングが制限されるため、表面が貧弱になることが多い。
自由スパース画像からの高速表面再構成のための新しいアプローチであるFSFSplatterを導入する。
提案手法は, エンドツーエンドの高密度ガウス初期化, カメラパラメータ推定, およびジオメトリ強化シーン最適化を統合する。
具体的には、FSFSplatterは大きなTransformerを使用して、多視点画像をエンコードし、自己分割型ガウスヘッドを介して密度と幾何学的に一貫したガウスシーン初期化を生成する。
これは、コントリビューションベースのプルーニングを通じてローカルフローターを排除し、迅速な最適化中に異なるカメラパラメータを持つ奥行きと多視点特徴監督を活用することで、限られたビューに過度な適合を緩和する。
FSFSplatterは、広く使われているDTUやReplicaの最先端の手法よりも優れている。
関連論文リスト
- FreeSplat++: Generalizable 3D Gaussian Splatting for Efficient Indoor Scene Reconstruction [50.534213038479926]
FreeSplat++は大規模な屋内全シーン再構築の代替手法である。
深度調整による微調整により,再現精度が大幅に向上し,トレーニング時間も大幅に短縮された。
論文 参考訳(メタデータ) (2025-03-29T06:22:08Z) - FatesGS: Fast and Accurate Sparse-View Surface Reconstruction using Gaussian Splatting with Depth-Feature Consistency [41.919176582029024]
本稿では,ビュー内深度とマルチビュー特徴整合性を活用する,革新的なスパースビュー再構築フレームワークを提案する。
提案手法は60倍から200倍の高速化で最先端の手法より優れる。
論文 参考訳(メタデータ) (2025-01-08T17:19:35Z) - SolidGS: Consolidating Gaussian Surfel Splatting for Sparse-View Surface Reconstruction [48.228533595941556]
この問題に対処するために,SolidGSと呼ばれる新しい手法を提案する。
再構成された幾何は多視点では非常に不整合であることがわかった。
幾何学的正規化と単分子正規化の助けを借りて,スパース面の再構成における優れた性能を実現する。
論文 参考訳(メタデータ) (2024-12-19T21:04:43Z) - PGSR: Planar-based Gaussian Splatting for Efficient and High-Fidelity Surface Reconstruction [37.14913599050765]
高忠実表面再構成を実現するために,高速平面型ガウススプラッティング再構成表現(PGSR)を提案する。
次に、大域的幾何精度を維持するために、一視点幾何、多視点測光、幾何正則化を導入する。
提案手法は3DGS法およびNeRF法よりも優れた高忠実度レンダリングと幾何再構成を維持しつつ,高速なトレーニングとレンダリングを実現する。
論文 参考訳(メタデータ) (2024-06-10T17:59:01Z) - InstantSplat: Sparse-view Gaussian Splatting in Seconds [91.77050739918037]
InstantSplatは,光速でスパークビュー3Dシーンを再現する新しい手法である。
InstantSplatでは,3Dシーン表現とカメラポーズを最適化する,自己管理フレームワークを採用している。
3D-GSの従来のSfMと比較して、30倍以上の再現を達成し、視覚的品質(SSIM)を0.3755から0.7624に改善する。
論文 参考訳(メタデータ) (2024-03-29T17:29:58Z) - VastGaussian: Vast 3D Gaussians for Large Scene Reconstruction [59.40711222096875]
VastGaussianは3次元ガウススティングに基づく大規模シーンにおける高品質な再構成とリアルタイムレンダリングのための最初の方法である。
提案手法は既存のNeRF手法より優れており,複数の大規模シーンデータセットの最先端結果が得られる。
論文 参考訳(メタデータ) (2024-02-27T11:40:50Z) - Fast Monocular Scene Reconstruction with Global-Sparse Local-Dense Grids [84.90863397388776]
本稿では,スパルス・ボクセル・ブロック・グリッドにおける署名付き距離関数(SDF)を直接使用して,距離のない高速かつ正確なシーン再構成を実現することを提案する。
我々の世界規模で疎密で局所的なデータ構造は、表面の空間的空間性を利用して、キャッシュフレンドリーなクエリを可能にし、マルチモーダルデータへの直接拡張を可能にします。
実験により、我々のアプローチはトレーニングでは10倍、レンダリングでは100倍高速であり、最先端のニューラル暗黙法に匹敵する精度を実現していることがわかった。
論文 参考訳(メタデータ) (2023-05-22T16:50:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。