論文の概要: SparseRecon: Neural Implicit Surface Reconstruction from Sparse Views with Feature and Depth Consistencies
- arxiv url: http://arxiv.org/abs/2508.00366v1
- Date: Fri, 01 Aug 2025 06:51:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-04 18:08:53.76498
- Title: SparseRecon: Neural Implicit Surface Reconstruction from Sparse Views with Feature and Depth Consistencies
- Title(参考訳): SparseRecon: 特徴と深さの整合性を考慮したスパースビューからのニューラルインシシシト表面再構成
- Authors: Liang Han, Xu Zhang, Haichuan Song, Kanle Shi, Yu-Shen Liu, Zhizhong Han,
- Abstract要約: SparseReconは、ボリュームレンダリングに基づく特徴整合性と不確実性誘導深度制約を有するスパースビューのニューラル暗黙的再構成手法である。
提案手法は,スパースビュー入力による高品質な幾何を生成できる最先端の手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 48.99420012507374
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Surface reconstruction from sparse views aims to reconstruct a 3D shape or scene from few RGB images. The latest methods are either generalization-based or overfitting-based. However, the generalization-based methods do not generalize well on views that were unseen during training, while the reconstruction quality of overfitting-based methods is still limited by the limited geometry clues. To address this issue, we propose SparseRecon, a novel neural implicit reconstruction method for sparse views with volume rendering-based feature consistency and uncertainty-guided depth constraint. Firstly, we introduce a feature consistency loss across views to constrain the neural implicit field. This design alleviates the ambiguity caused by insufficient consistency information of views and ensures completeness and smoothness in the reconstruction results. Secondly, we employ an uncertainty-guided depth constraint to back up the feature consistency loss in areas with occlusion and insignificant features, which recovers geometry details for better reconstruction quality. Experimental results demonstrate that our method outperforms the state-of-the-art methods, which can produce high-quality geometry with sparse-view input, especially in the scenarios with small overlapping views. Project page: https://hanl2010.github.io/SparseRecon/.
- Abstract(参考訳): スパースビューからの表面再構成は、RGB画像の少ない3次元形状やシーンを再構築することを目的としている。
最新の手法は一般化ベースかオーバーフィットベースである。
しかし、一般化に基づく手法は、訓練中に目に見えない視点でうまく一般化しないが、過度に適合する手法の再現品質は、まだ限られた幾何学的手がかりによって制限されている。
この問題に対処するために,ボリュームレンダリングに基づく特徴整合性と不確実性誘導深度制約を有するスパースビューのニューラル暗黙的再構成手法であるSparseReconを提案する。
まず、ニューラルネットワークの暗黙のフィールドを制約するために、ビュー間の特徴整合損失を導入する。
この設計は、ビューの整合性が不十分なことから生じる曖昧さを軽減し、再構築結果の完全性と滑らかさを確保する。
第2に,不確実性誘導深度制約を用いて,閉鎖的特徴と重要な特徴を有する領域における特徴の整合性損失をバックアップし,幾何的細部を復元し,再現性の向上を図る。
実験の結果,提案手法は,特に重なり合いの小さいシナリオにおいて,スパース・ビュー・インプットによる高品質な幾何を生成できる最先端の手法よりも優れていることが示された。
プロジェクトページ: https://hanl2010.github.io/SparseRecon/
関連論文リスト
- Decompositional Neural Scene Reconstruction with Generative Diffusion Prior [64.71091831762214]
完全な形状と詳細なテクスチャを持つ3次元シーンの分解的再構成は、下流の応用に興味深い。
近年のアプローチでは、この問題に対処するために意味的あるいは幾何学的正則化が取り入れられているが、制約の少ない領域では著しく劣化している。
本稿では,SDS(Score Distillation Sampling)の形で拡散先行値を用いたDP-Reconを提案し,新しい視点下で個々の物体の神経表現を最適化する。
論文 参考訳(メタデータ) (2025-03-19T02:11:31Z) - GURecon: Learning Detailed 3D Geometric Uncertainties for Neural Surface Reconstruction [46.32074326890457]
本稿では,幾何整合性に基づく神経表面の幾何不確実性場を確立する新しいフレームワークGUReconを提案する。
様々なデータセットの実験は、GUReconの3次元幾何学的不確かさのモデル化における優位性を示している。
論文 参考訳(メタデータ) (2024-12-19T15:15:03Z) - PVP-Recon: Progressive View Planning via Warping Consistency for Sparse-View Surface Reconstruction [49.7580491592023]
PVP-Recon, 新規かつ効果的なスパースビュー表面再構成法を提案する。
PVP-Reconは3つのビューで初期表面の再構築を開始し、徐々に新しいビューを追加する。
このプログレッシブビュー計画の進捗は、神経SDFベースの再構築モジュールによってインターリーブされる。
論文 参考訳(メタデータ) (2024-09-09T10:06:34Z) - NeuSurf: On-Surface Priors for Neural Surface Reconstruction from Sparse
Input Views [41.03837477483364]
本研究では,表面の高度に忠実な再構成を実現するために,地上の事前情報を活用する新しいスパース・ビュー・リコンストラクション・フレームワークを提案する。
具体的には,大域的幾何アライメントと局所的幾何洗練に関するいくつかの制約を設計し,粗い形状と細部を協調的に最適化する。
DTUとBlendedMVSデータセットによる2つの一般的なスパース設定の実験結果は、最先端の手法よりも大幅に改善されたことを示している。
論文 参考訳(メタデータ) (2023-12-21T16:04:45Z) - Improving Neural Indoor Surface Reconstruction with Mask-Guided Adaptive
Consistency Constraints [0.6749750044497732]
本稿では、ビュー依存色とビュー非依存色を分離する2段階のトレーニングプロセスを提案し、さらに2つの新しい一貫性制約を活用して、余分な事前処理を必要とせず、詳細な再構成性能を向上させる。
合成および実世界のデータセットの実験は、事前推定誤差から干渉を減らす能力を示している。
論文 参考訳(メタデータ) (2023-09-18T13:05:23Z) - Robust Geometry-Preserving Depth Estimation Using Differentiable
Rendering [93.94371335579321]
我々は、余分なデータやアノテーションを必要とせずに、幾何学保存深度を予測するためにモデルを訓練する学習フレームワークを提案する。
包括的な実験は、我々のフレームワークの優れた一般化能力を強調します。
我々の革新的な損失関数は、ドメイン固有のスケール・アンド・シフト係数を自律的に復元するモデルを可能にします。
論文 参考訳(メタデータ) (2023-09-18T12:36:39Z) - Depth-NeuS: Neural Implicit Surfaces Learning for Multi-view
Reconstruction Based on Depth Information Optimization [6.493546601668505]
ニュートラルサーフェス表現とレンダリングの方法、例えばNeuSは、ボリュームレンダリングを通じてニュートラルサーフェスを学習することがますます人気になっていることを示した。
既存の手法では深度情報の直接表現が欠けているため、幾何学的特徴によって物体の再構成が制限されない。
これは、既存の手法では、深度情報を使わずに表面の正規表現しか使わないためである。
多視点再構成のための深度情報最適化に基づくDepth-NeuSと呼ばれる暗黙曲面学習手法を提案する。
論文 参考訳(メタデータ) (2023-03-30T01:19:27Z) - Recovering Fine Details for Neural Implicit Surface Reconstruction [3.9702081347126943]
そこで我々はD-NeuSを提案する。D-NeuSは、微細な幾何学的詳細を復元できるボリュームレンダリング型ニューラル暗示表面再構成法である。
我々は,SDFゼロクロスの補間により表面点に多視点の特徴的整合性を付与する。
本手法は,高精度な表面を細部で再構成し,その性能を向上する。
論文 参考訳(メタデータ) (2022-11-21T10:06:09Z) - NeuS: Learning Neural Implicit Surfaces by Volume Rendering for
Multi-view Reconstruction [88.02850205432763]
物体やシーンを2次元画像入力から高忠実度に再構成するニュートラルサーフェス(NeuS)を提案する。
DVRやIDRのような既存の神経表面再構成アプローチでは、フォアグラウンドマスクを監督する必要がある。
本研究では,従来のボリュームレンダリング手法が表面再構成に固有の幾何学的誤差を引き起こすことを観察する。
マスクの監督なしでもより正確な表面再構成を実現するため,第一次近似ではバイアスのない新しい定式化を提案する。
論文 参考訳(メタデータ) (2021-06-20T12:59:42Z) - Multi-view 3D Reconstruction of a Texture-less Smooth Surface of Unknown
Generic Reflectance [86.05191217004415]
表面反射率の不明なテクスチャレス物体の多視点再構成は難しい課題である。
本稿では,コライトスキャナーをベースとした,この問題に対するシンプルで堅牢な解法を提案する。
論文 参考訳(メタデータ) (2021-05-25T01:28:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。