論文の概要: Sparse2DGS: Sparse-View Surface Reconstruction using 2D Gaussian Splatting with Dense Point Cloud
- arxiv url: http://arxiv.org/abs/2505.19854v2
- Date: Thu, 29 May 2025 07:25:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 13:10:25.731732
- Title: Sparse2DGS: Sparse-View Surface Reconstruction using 2D Gaussian Splatting with Dense Point Cloud
- Title(参考訳): Sparse2DGS:Dense Point Cloudを用いた2次元ガウススプラッティングによるスパースビュー表面再構成
- Authors: Natsuki Takama, Shintaro Ito, Koichi Ito, Hwann-Tzong Chen, Takafumi Aoki,
- Abstract要約: 本稿では,Sparse2DGSと呼ばれる新しい3次元再構成手法を提案する。
Sparse2DGSはステレオ画像の基本モデルであるDUSt3RとCOLMAP MVSを採用し、高精度で密度の高い3D点雲を生成する。
Sparse2DGSは3つの画像を用いて物体の3次元形状を正確に再構成できることを示す。
- 参考スコア(独自算出の注目度): 9.784526657786342
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gaussian Splatting (GS) has gained attention as a fast and effective method for novel view synthesis. It has also been applied to 3D reconstruction using multi-view images and can achieve fast and accurate 3D reconstruction. However, GS assumes that the input contains a large number of multi-view images, and therefore, the reconstruction accuracy significantly decreases when only a limited number of input images are available. One of the main reasons is the insufficient number of 3D points in the sparse point cloud obtained through Structure from Motion (SfM), which results in a poor initialization for optimizing the Gaussian primitives. We propose a new 3D reconstruction method, called Sparse2DGS, to enhance 2DGS in reconstructing objects using only three images. Sparse2DGS employs DUSt3R, a fundamental model for stereo images, along with COLMAP MVS to generate highly accurate and dense 3D point clouds, which are then used to initialize 2D Gaussians. Through experiments on the DTU dataset, we show that Sparse2DGS can accurately reconstruct the 3D shapes of objects using just three images. The project page is available at https://gsisaoki.github.io/SPARSE2DGS/
- Abstract(参考訳): ガウススプラッティング(GS)は、新規なビュー合成の迅速かつ効果的な方法として注目されている。
また、多視点画像を用いた3次元再構成にも適用されており、高速かつ正確な3次元再構成を実現することができる。
しかし、GSは、入力に多数のマルチビュー画像が含まれていると仮定し、限られた数の入力画像しか利用できない場合、再構成精度は大幅に低下する。
主な理由の1つは、運動構造 (Structure from Motion, SfM) によって得られるスパース点雲の3D点数が不足していることであり、ガウス原始体を最適化するための初期化が不十分である。
本稿では,Sparse2DGSと呼ばれる新しい3次元再構成手法を提案する。
Sparse2DGSはステレオ画像の基本モデルであるDUSt3Rを使用し、COLMAP MVSとともに高精度で密度の高い3D点雲を生成し、2Dガウスを初期化する。
DTUデータセットを用いた実験により,Sparse2DGSは3つの画像のみを用いてオブジェクトの3次元形状を正確に再構成できることが判明した。
プロジェクトページはhttps://gsisaoki.github.io/SPARSE2DGS/で公開されている。
関連論文リスト
- SparSplat: Fast Multi-View Reconstruction with Generalizable 2D Gaussian Splatting [7.9061560322289335]
スパースビュー画像から3次元形状再構成とNVSを行うために、フィードフォワード方式で2DGS表面パラメータを回帰するMVSベースの学習を提案する。
結果として得られるパイプラインは、DTU 3D再構築ベンチマークにおける最先端の成果を、最先端のNVSと同様に、チャンファーから地底までの距離で達成する。
論文 参考訳(メタデータ) (2025-05-04T16:33:47Z) - EG-Gaussian: Epipolar Geometry and Graph Network Enhanced 3D Gaussian Splatting [9.94641948288285]
EG-Gaussianは3次元シーン再構成にエピポーラ幾何学とグラフネットワークを利用する。
提案手法は3DGS法と比較して再構成精度を著しく向上させる。
論文 参考訳(メタデータ) (2025-04-18T08:10:39Z) - High-fidelity 3D Object Generation from Single Image with RGBN-Volume Gaussian Reconstruction Model [38.13429047918231]
本稿では,3次元のボクセル表現が明示的な3次元幾何情報を含む,新しいハイブリッドなVoxel-Gaussian表現を提案する。
我々の3Dボクセル表現は、2D画像から推定できるRGB特徴と表面正規特徴を整列する融合モジュールによって得られる。
論文 参考訳(メタデータ) (2025-04-02T08:58:34Z) - DSplats: 3D Generation by Denoising Splats-Based Multiview Diffusion Models [67.50989119438508]
本稿では,ガウスをベースとしたレコンストラクタを用いて,リアルな3Dアセットを生成することで,マルチビュー画像を直接認識するDSplatを紹介した。
実験の結果,DSplatsは高品質で空間的に一貫した出力を生成できるだけでなく,単一画像から3次元再構成への新たな標準も設定できることがわかった。
論文 参考訳(メタデータ) (2024-12-11T07:32:17Z) - GSD: View-Guided Gaussian Splatting Diffusion for 3D Reconstruction [52.04103235260539]
単一視点からの3次元オブジェクト再構成のためのガウススプティング表現に基づく拡散モデル手法を提案する。
モデルはGS楕円体の集合で表される3Dオブジェクトを生成することを学習する。
最終的な再構成されたオブジェクトは、高品質な3D構造とテクスチャを持ち、任意のビューで効率的にレンダリングできる。
論文 参考訳(メタデータ) (2024-07-05T03:43:08Z) - InstantSplat: Sparse-view Gaussian Splatting in Seconds [91.77050739918037]
InstantSplatは,光速でスパークビュー3Dシーンを再現する新しい手法である。
InstantSplatでは,3Dシーン表現とカメラポーズを最適化する,自己管理フレームワークを採用している。
3D-GSの従来のSfMと比較して、30倍以上の再現を達成し、視覚的品質(SSIM)を0.3755から0.7624に改善する。
論文 参考訳(メタデータ) (2024-03-29T17:29:58Z) - 2D Gaussian Splatting for Geometrically Accurate Radiance Fields [50.056790168812114]
3D Gaussian Splatting (3DGS)は近年,高画質の新規ビュー合成と高速レンダリングを実現し,放射界再構成に革命をもたらした。
多視点画像から幾何学的精度の高い放射場をモデル化・再構成するための新しいアプローチである2DGS(2D Gaussian Splatting)を提案する。
競合する外観品質、高速トレーニング速度、リアルタイムレンダリングを維持しつつ、ノイズフリーかつ詳細な幾何学的再構成を可能にする。
論文 参考訳(メタデータ) (2024-03-26T17:21:24Z) - GeoGS3D: Single-view 3D Reconstruction via Geometric-aware Diffusion Model and Gaussian Splatting [81.03553265684184]
単視点画像から詳細な3Dオブジェクトを再構成するフレームワークであるGeoGS3Dを紹介する。
本稿では,GDS(Gaussian Divergence Significance)という新しい指標を提案する。
実験により、GeoGS3Dはビュー間で高い一貫性を持つ画像を生成し、高品質な3Dオブジェクトを再構成することを示した。
論文 参考訳(メタデータ) (2024-03-15T12:24:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。