論文の概要: RaNeuS: Ray-adaptive Neural Surface Reconstruction
- arxiv url: http://arxiv.org/abs/2406.09801v1
- Date: Fri, 14 Jun 2024 07:54:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-17 14:34:29.479442
- Title: RaNeuS: Ray-adaptive Neural Surface Reconstruction
- Title(参考訳): RaNeuS:光適応型ニューラルサーフェス
- Authors: Yida Wang, David Joseph Tan, Nassir Navab, Federico Tombari,
- Abstract要約: 微分可能放射場 eg NeRF を利用して、新しいビューレンダリングを生成するとともに、詳細な3次元表面を再構成する。
本研究では,SDFから放射場への射影を一様等間隔のアイコニカル正規化で定式化し,最適化することを考えると,光度重み付け係数を改良する。
提案する textitRaNeuS は,合成データと実データの両方で広く評価されている。
- 参考スコア(独自算出の注目度): 87.20343320266215
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Our objective is to leverage a differentiable radiance field \eg NeRF to reconstruct detailed 3D surfaces in addition to producing the standard novel view renderings. There have been related methods that perform such tasks, usually by utilizing a signed distance field (SDF). However, the state-of-the-art approaches still fail to correctly reconstruct the small-scale details, such as the leaves, ropes, and textile surfaces. Considering that different methods formulate and optimize the projection from SDF to radiance field with a globally constant Eikonal regularization, we improve with a ray-wise weighting factor to prioritize the rendering and zero-crossing surface fitting on top of establishing a perfect SDF. We propose to adaptively adjust the regularization on the signed distance field so that unsatisfying rendering rays won't enforce strong Eikonal regularization which is ineffective, and allow the gradients from regions with well-learned radiance to effectively back-propagated to the SDF. Consequently, balancing the two objectives in order to generate accurate and detailed surfaces. Additionally, concerning whether there is a geometric bias between the zero-crossing surface in SDF and rendering points in the radiance field, the projection becomes adjustable as well depending on different 3D locations during optimization. Our proposed \textit{RaNeuS} are extensively evaluated on both synthetic and real datasets, achieving state-of-the-art results on both novel view synthesis and geometric reconstruction.
- Abstract(参考訳): 我々の目的は、微分可能な放射場 \eg NeRF を利用して、標準的な新しいビューレンダリングを生成することに加えて、詳細な3次元表面を再構成することである。
このようなタスクを、通常、符号付き距離場(SDF)を利用して実行する関連手法がある。
しかし、最先端のアプローチは、葉、ロープ、繊維の表面といった小さな細部を正しく再構築することができない。
我々は,SDFから放射界への射影を一様に一定に定式化して最適化することを考えると,完全なSDFを確立する上でのレンダリングおよびゼロ交差面の嵌合を優先するために,光度重み付け係数を用いて改良する。
本研究では, 符号距離場の正則化を適応的に調整することにより, 不満足なレンダリング線が強いアイコンの正則化を強制せず, 十分に学習した放射率を持つ領域からの勾配を効果的にSDFに逆伝播させることができることを提案する。
その結果、2つの目的をバランスさせ、正確な表面と詳細な表面を生成する。
また、SDFにおけるゼロ交差面と放射場におけるレンダリング点との間に幾何的偏差があるかについても、最適化中の異なる3次元位置に依存して、プロジェクションの調整が可能となる。
提案した‘textit{RaNeuS} は,合成データと実データの両方で広範囲に評価され,新しいビュー合成と幾何再構成の両面において最先端の結果が得られた。
関連論文リスト
- G2SDF: Surface Reconstruction from Explicit Gaussians with Implicit SDFs [84.07233691641193]
G2SDFはニューラル暗黙の符号付き距離場をガウススプラッティングフレームワークに統合する新しいアプローチである。
G2SDFは, 3DGSの効率を維持しつつ, 従来よりも優れた品質を実現する。
論文 参考訳(メタデータ) (2024-11-25T20:07:07Z) - AniSDF: Fused-Granularity Neural Surfaces with Anisotropic Encoding for High-Fidelity 3D Reconstruction [55.69271635843385]
AniSDF(AniSDF)は,高忠実度3次元再構成のための物理に基づく符号化による融合粒度ニューラルサーフェスを学習する新しいアプローチである。
本手法は, 幾何再構成と新規ビュー合成の両面において, SDF法の品質を飛躍的に向上させる。
論文 参考訳(メタデータ) (2024-10-02T03:10:38Z) - ND-SDF: Learning Normal Deflection Fields for High-Fidelity Indoor Reconstruction [50.07671826433922]
微妙な幾何を同時に復元し、異なる特徴を持つ領域をまたいだ滑らかさを保つことは自明ではない。
そこで我々は,ND-SDFを提案する。ND-SDFは,通常のシーンとそれ以前のシーンの角偏差を表す正規偏向場を学習する。
本手法は, 壁面や床面などのスムーズなテクスチャ構造を得るだけでなく, 複雑な構造の幾何学的詳細も保存する。
論文 参考訳(メタデータ) (2024-08-22T17:59:01Z) - GS-Octree: Octree-based 3D Gaussian Splatting for Robust Object-level 3D Reconstruction Under Strong Lighting [4.255847344539736]
我々はオクツリーに基づく暗黙的な表面表現とガウススプラッティングを組み合わせた新しいアプローチを導入する。
SDFによる3次元ガウス分布を利用した本手法は,特に高輝度光による特徴強調画像において,より正確な形状を再構成する。
論文 参考訳(メタデータ) (2024-06-26T09:29:56Z) - GaussianRoom: Improving 3D Gaussian Splatting with SDF Guidance and Monocular Cues for Indoor Scene Reconstruction [3.043712258792239]
ニューラルネットワークSDFと3DGSを統合した統合フレームワークを提案する。
このフレームワークには学習可能なニューラルネットワークSDFフィールドが組み込まれており、ガウスの密度化と刈り取りをガイドしている。
本手法は, 表面再構成と新しいビュー合成の両面において, 最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-05-30T03:46:59Z) - CVT-xRF: Contrastive In-Voxel Transformer for 3D Consistent Radiance Fields from Sparse Inputs [65.80187860906115]
スパース入力によるNeRFの性能向上のための新しい手法を提案する。
まず, サンプル線が, 3次元空間内の特定のボクセルと交差することを保証するために, ボクセルを用いた放射線サンプリング戦略を採用する。
次に、ボクセル内の追加点をランダムにサンプリングし、トランスフォーマーを適用して各線上の他の点の特性を推測し、ボリュームレンダリングに組み込む。
論文 参考訳(メタデータ) (2024-03-25T15:56:17Z) - Anti-Aliased Neural Implicit Surfaces with Encoding Level of Detail [54.03399077258403]
本稿では,高頻度幾何細部リカバリとアンチエイリアス化された新しいビューレンダリングのための効率的なニューラル表現であるLoD-NeuSを提案する。
我々の表現は、光線に沿った円錐状のフラストラム内の多面体化から空間特徴を集約する。
論文 参考訳(メタデータ) (2023-09-19T05:44:00Z) - Recovering Fine Details for Neural Implicit Surface Reconstruction [3.9702081347126943]
そこで我々はD-NeuSを提案する。D-NeuSは、微細な幾何学的詳細を復元できるボリュームレンダリング型ニューラル暗示表面再構成法である。
我々は,SDFゼロクロスの補間により表面点に多視点の特徴的整合性を付与する。
本手法は,高精度な表面を細部で再構成し,その性能を向上する。
論文 参考訳(メタデータ) (2022-11-21T10:06:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。