論文の概要: FatesGS: Fast and Accurate Sparse-View Surface Reconstruction using Gaussian Splatting with Depth-Feature Consistency
- arxiv url: http://arxiv.org/abs/2501.04628v1
- Date: Wed, 08 Jan 2025 17:19:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-09 14:55:51.932821
- Title: FatesGS: Fast and Accurate Sparse-View Surface Reconstruction using Gaussian Splatting with Depth-Feature Consistency
- Title(参考訳): FatesGS:奥行き一貫性を持つガウススプラッティングによる高速かつ高精度なスパースビュー表面再構成
- Authors: Han Huang, Yulun Wu, Chao Deng, Ge Gao, Ming Gu, Yu-Shen Liu,
- Abstract要約: 本稿では,ビュー内深度とマルチビュー特徴整合性を活用する,革新的なスパースビュー再構築フレームワークを提案する。
提案手法は60倍から200倍の高速化で最先端の手法より優れる。
- 参考スコア(独自算出の注目度): 41.919176582029024
- License:
- Abstract: Recently, Gaussian Splatting has sparked a new trend in the field of computer vision. Apart from novel view synthesis, it has also been extended to the area of multi-view reconstruction. The latest methods facilitate complete, detailed surface reconstruction while ensuring fast training speed. However, these methods still require dense input views, and their output quality significantly degrades with sparse views. We observed that the Gaussian primitives tend to overfit the few training views, leading to noisy floaters and incomplete reconstruction surfaces. In this paper, we present an innovative sparse-view reconstruction framework that leverages intra-view depth and multi-view feature consistency to achieve remarkably accurate surface reconstruction. Specifically, we utilize monocular depth ranking information to supervise the consistency of depth distribution within patches and employ a smoothness loss to enhance the continuity of the distribution. To achieve finer surface reconstruction, we optimize the absolute position of depth through multi-view projection features. Extensive experiments on DTU and BlendedMVS demonstrate that our method outperforms state-of-the-art methods with a speedup of 60x to 200x, achieving swift and fine-grained mesh reconstruction without the need for costly pre-training.
- Abstract(参考訳): 近年、ガウシアン・スプラッティングはコンピュータビジョンの分野で新たなトレンドを引き起こしている。
新規なビュー合成とは別に、多視点再構成の領域にも拡張されている。
最新の手法は、高速なトレーニング速度を確保しながら、完全で詳細な表面の再構築を容易にする。
しかし、これらの手法はいまだに高密度な入力ビューを必要としており、その出力品質はスパースビューで著しく低下する。
ガウス原始体は少数のトレーニングビューに過度に適合する傾向にあり,ノイズの多いフローターや不完全な再建面が生じる傾向にあった。
本稿では,視界内深度と多視点特徴の整合性を活用し,表面の高精度な再構成を実現する,革新的なスパース・ビュー・リコンストラクション・フレームワークを提案する。
具体的には、単眼深度ランキング情報を用いて、パッチ内の深さ分布の一貫性を監督し、スムーズな損失を利用して分布の連続性を高める。
より微細な表面再構成を実現するため,多視点投影特徴による深度絶対位置を最適化する。
DTUとBlendedMVSの大規模な実験により,我々の手法は60倍から200倍の速度で最先端の手法より優れており,高精度な事前学習を必要とせず,高速かつきめ細かなメッシュ再構築を実現していることがわかった。
関連論文リスト
- SolidGS: Consolidating Gaussian Surfel Splatting for Sparse-View Surface Reconstruction [48.228533595941556]
この問題に対処するために,SolidGSと呼ばれる新しい手法を提案する。
再構成された幾何は多視点では非常に不整合であることがわかった。
幾何学的正規化と単分子正規化の助けを借りて,スパース面の再構成における優れた性能を実現する。
論文 参考訳(メタデータ) (2024-12-19T21:04:43Z) - 2DGS-Room: Seed-Guided 2D Gaussian Splatting with Geometric Constrains for High-Fidelity Indoor Scene Reconstruction [3.8879997968084137]
高忠実度屋内シーン再構築のための2次元ガウス平滑化手法である2DGS-Roomを導入する。
我々は2次元ガウス分布を制御するためにシード誘導機構を用い、適応的な成長と刈り取り機構によって動的に最適化されたシードポイントの密度を推定した。
幾何的精度をさらに向上するために,単眼深度と通常の先行値を組み合わせて,細部と無テクスチャ領域の制約をそれぞれ与える。
論文 参考訳(メタデータ) (2024-12-04T16:17:47Z) - GausSurf: Geometry-Guided 3D Gaussian Splatting for Surface Reconstruction [79.42244344704154]
GausSurfは、テクスチャリッチな領域におけるマルチビュー一貫性と、シーンのテクスチャレスな領域における通常の事前の幾何学的ガイダンスを採用している。
本手法は,再現性や計算時間の観点から,最先端の手法を超越した手法である。
論文 参考訳(メタデータ) (2024-11-29T03:54:54Z) - DGTR: Distributed Gaussian Turbo-Reconstruction for Sparse-View Vast Scenes [81.56206845824572]
新規ビュー合成(NVS)アプローチは、広大なシーン再構築において重要な役割を担っている。
大規模な環境下では、復元の質が悪くなる場合が少なくない。
本稿では,スパース・ビュー・ワイド・シーンのための効率的なガウス再構成のための分散フレームワークであるDGTRを提案する。
論文 参考訳(メタデータ) (2024-11-19T07:51:44Z) - NeuSurf: On-Surface Priors for Neural Surface Reconstruction from Sparse
Input Views [41.03837477483364]
本研究では,表面の高度に忠実な再構成を実現するために,地上の事前情報を活用する新しいスパース・ビュー・リコンストラクション・フレームワークを提案する。
具体的には,大域的幾何アライメントと局所的幾何洗練に関するいくつかの制約を設計し,粗い形状と細部を協調的に最適化する。
DTUとBlendedMVSデータセットによる2つの一般的なスパース設定の実験結果は、最先端の手法よりも大幅に改善されたことを示している。
論文 参考訳(メタデータ) (2023-12-21T16:04:45Z) - Critical Regularizations for Neural Surface Reconstruction in the Wild [26.460011241432092]
本稿では,高品質でロバストな再構成結果を得るのに,適切な点クラウド監視と幾何正規化が十分であることを示すRegSDFを提案する。
RegSDFは、複雑なトポロジと非構造化カメラ軌道を持つオープンシーンであっても、細部で表面を再構築することができる。
論文 参考訳(メタデータ) (2022-06-07T08:11:22Z) - MonoSDF: Exploring Monocular Geometric Cues for Neural Implicit Surface
Reconstruction [72.05649682685197]
最先端のニューラル暗黙法は、多くの入力ビューから単純なシーンの高品質な再構築を可能にする。
これは主に、十分な制約を提供していないRGB再構築損失の固有の曖昧さによって引き起こされる。
近年の単分子形状予測の分野での進歩に触発され, ニューラルな暗黙的表面再構成の改善にこれらの方法が役立つかを探究する。
論文 参考訳(メタデータ) (2022-06-01T17:58:15Z) - NeuS: Learning Neural Implicit Surfaces by Volume Rendering for
Multi-view Reconstruction [88.02850205432763]
物体やシーンを2次元画像入力から高忠実度に再構成するニュートラルサーフェス(NeuS)を提案する。
DVRやIDRのような既存の神経表面再構成アプローチでは、フォアグラウンドマスクを監督する必要がある。
本研究では,従来のボリュームレンダリング手法が表面再構成に固有の幾何学的誤差を引き起こすことを観察する。
マスクの監督なしでもより正確な表面再構成を実現するため,第一次近似ではバイアスのない新しい定式化を提案する。
論文 参考訳(メタデータ) (2021-06-20T12:59:42Z) - Monocular Real-Time Volumetric Performance Capture [28.481131687883256]
本稿では,モノクロ映像から実時間速度でボリューム・パフォーマンス・キャプチャとノベル・ビュー・レンダリングを行うための最初のアプローチを提案する。
このシステムは,Pixel-Aligned Implicit Function (PIFu)を活用して,各フレームから完全にテクスチャ化された3次元人体を再構成する。
また,オンラインハード・サンプル・マイニング(OHEM)技術を導入し,難題の稀な発生により,障害モードを効果的に抑制する手法を提案する。
論文 参考訳(メタデータ) (2020-07-28T04:45:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。