論文の概要: Sparse2DGS: Geometry-Prioritized Gaussian Splatting for Surface Reconstruction from Sparse Views
- arxiv url: http://arxiv.org/abs/2504.20378v1
- Date: Tue, 29 Apr 2025 02:47:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.726262
- Title: Sparse2DGS: Geometry-Prioritized Gaussian Splatting for Surface Reconstruction from Sparse Views
- Title(参考訳): スパース2DGS:スパークスから見た表面再構成のための幾何分割ガウススメッティング
- Authors: Jiang Wu, Rui Li, Yu Zhu, Rong Guo, Jinqiu Sun, Yanning Zhang,
- Abstract要約: 完全かつ正確な再構成のためのMVS-d Gaussian Splatting PipelineであるSparse2DGSを提案する。
我々の重要な洞察は、幾何学的優先順位付けされた拡張スキームを組み込むことであり、不適切な条件下での直接的かつ堅牢な幾何学的学習を可能にする。
Sparse2DGSは、NeRFベースの微調整方式よりも2倍の速さで既存の手法よりも優れています。
- 参考スコア(独自算出の注目度): 45.125032766506536
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a Gaussian Splatting method for surface reconstruction using sparse input views. Previous methods relying on dense views struggle with extremely sparse Structure-from-Motion points for initialization. While learning-based Multi-view Stereo (MVS) provides dense 3D points, directly combining it with Gaussian Splatting leads to suboptimal results due to the ill-posed nature of sparse-view geometric optimization. We propose Sparse2DGS, an MVS-initialized Gaussian Splatting pipeline for complete and accurate reconstruction. Our key insight is to incorporate the geometric-prioritized enhancement schemes, allowing for direct and robust geometric learning under ill-posed conditions. Sparse2DGS outperforms existing methods by notable margins while being ${2}\times$ faster than the NeRF-based fine-tuning approach.
- Abstract(参考訳): スパース入力ビューを用いた表面再構成のためのガウス散乱法を提案する。
より密集したビューに依存する従来の手法は、初期化のための非常にスパースなStructure-from-Motionポイントと競合する。
学習ベースのMulti-view Stereo (MVS) は高密度な3Dポイントを提供するが、ガウススプラッティングと直接組み合わせることで、スパースビューの幾何最適化の誤った性質のため、最適以下の結果をもたらす。
完全かつ正確な再構成のためのMVS初期化ガウス分割パイプラインであるSparse2DGSを提案する。
我々の重要な洞察は、幾何学的優先順位付けされた拡張スキームを組み込むことであり、不適切な条件下での直接的かつ堅牢な幾何学的学習を可能にする。
Sparse2DGSは、NeRFベースの微調整手法よりも${2}\times$の差で既存の手法よりも優れている。
関連論文リスト
- FreeSplat++: Generalizable 3D Gaussian Splatting for Efficient Indoor Scene Reconstruction [50.534213038479926]
FreeSplat++は大規模な屋内全シーン再構築の代替手法である。
深度調整による微調整により,再現精度が大幅に向上し,トレーニング時間も大幅に短縮された。
論文 参考訳(メタデータ) (2025-03-29T06:22:08Z) - RoGSplat: Learning Robust Generalizable Human Gaussian Splatting from Sparse Multi-View Images [39.03889696169877]
RoGSplatは、スパースマルチビュー画像から見えない人間の高忠実な新しいビューを合成するための新しいアプローチである。
提案手法は,新しいビュー合成とクロスデータセットの一般化において,最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2025-03-18T12:18:34Z) - SolidGS: Consolidating Gaussian Surfel Splatting for Sparse-View Surface Reconstruction [48.228533595941556]
この問題に対処するために,SolidGSと呼ばれる新しい手法を提案する。
再構成された幾何は多視点では非常に不整合であることがわかった。
幾何学的正規化と単分子正規化の助けを借りて,スパース面の再構成における優れた性能を実現する。
論文 参考訳(メタデータ) (2024-12-19T21:04:43Z) - AGS-Mesh: Adaptive Gaussian Splatting and Meshing with Geometric Priors for Indoor Room Reconstruction Using Smartphones [19.429461194706786]
室内シーンの正確な3次元再構成のためのガウススメッティング法における接合面深度と正規化のアプローチを提案する。
我々のフィルタリング戦略と最適化設計は、メッシュ推定と新規ビュー合成の両方において大きな改善を示す。
論文 参考訳(メタデータ) (2024-11-28T17:04:32Z) - Quadratic Gaussian Splatting for Efficient and Detailed Surface Reconstruction [7.500927135156425]
Quadratic Gaussian Splatting (QGS) は、円盤を二次曲面に置き換える新しい方法である。
QGSは、通常の一貫性項を導くために空間曲率を描画し、過剰な平滑化を効果的に低減する。
私たちのコードはオープンソースとしてリリースされます。
論文 参考訳(メタデータ) (2024-11-25T13:55:00Z) - MGS-SLAM: Monocular Sparse Tracking and Gaussian Mapping with Depth Smooth Regularization [29.713650915551632]
本稿では,ガウススプラッティングに基づく濃密な視覚的局所化とマッピングのための新しいフレームワークを紹介する。
疎視度追跡と3次元ガウススプラッティングのシーン表現を初めて共同で最適化する。
ポーズ推定の精度は既存の手法や最先端の手法を超越している。
論文 参考訳(メタデータ) (2024-05-10T04:42:21Z) - GS2Mesh: Surface Reconstruction from Gaussian Splatting via Novel Stereo Views [9.175560202201819]
3Dガウススプラッティング(3DGS)はシーンを正確に表現するための効率的なアプローチとして登場した。
本稿では,ノイズの多い3DGS表現とスムーズな3Dメッシュ表現とのギャップを埋めるための新しい手法を提案する。
私たちは、オリジナルのトレーニングポーズに対応するステレオアライメントされたイメージのペアをレンダリングし、ペアをステレオモデルに入力して深度プロファイルを取得し、最後にすべてのプロファイルを融合して単一のメッシュを得る。
論文 参考訳(メタデータ) (2024-04-02T10:13:18Z) - InstantSplat: Sparse-view Gaussian Splatting in Seconds [91.77050739918037]
InstantSplatは,光速でスパークビュー3Dシーンを再現する新しい手法である。
InstantSplatでは,3Dシーン表現とカメラポーズを最適化する,自己管理フレームワークを採用している。
3D-GSの従来のSfMと比較して、30倍以上の再現を達成し、視覚的品質(SSIM)を0.3755から0.7624に改善する。
論文 参考訳(メタデータ) (2024-03-29T17:29:58Z) - GaussianPro: 3D Gaussian Splatting with Progressive Propagation [49.918797726059545]
3DGSはStructure-from-Motion (SfM)技術によって生成されるポイントクラウドに大きく依存している。
本稿では, 3次元ガウスの密度化を導くために, プログレッシブ・プログレッシブ・プログレッシブ・ストラテジーを適用した新しい手法を提案する。
提案手法はデータセット上の3DGSを大幅に上回り,PSNRでは1.15dBの改善が見られた。
論文 参考訳(メタデータ) (2024-02-22T16:00:20Z) - GPS-Gaussian: Generalizable Pixel-wise 3D Gaussian Splatting for Real-time Human Novel View Synthesis [70.24111297192057]
我々は、文字の新たなビューをリアルタイムに合成するための新しいアプローチ、GPS-Gaussianを提案する。
提案手法は,スパースビューカメラ設定下での2K解像度のレンダリングを可能にする。
論文 参考訳(メタデータ) (2023-12-04T18:59:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。