論文の概要: Ray-Distance Volume Rendering for Neural Scene Reconstruction
- arxiv url: http://arxiv.org/abs/2408.15524v1
- Date: Wed, 28 Aug 2024 04:19:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-29 17:12:56.268534
- Title: Ray-Distance Volume Rendering for Neural Scene Reconstruction
- Title(参考訳): ニューラルシーン再構成のためのレイディスタンスボリュームレンダリング
- Authors: Ruihong Yin, Yunlu Chen, Sezer Karaoglu, Theo Gevers,
- Abstract要約: ニューラルシーン再構築における既存の手法は、SDF(Signed Distance Function)を用いて密度関数をモデル化する。
室内のシーンでは、サンプリングされた点に対するSDFから計算された密度は、ボリュームレンダリングにおいてその真の重要性を常に反映していないかもしれない。
本研究は,信号線距離関数(SRDF)を用いて密度関数をパラメータ化する屋内シーン再構築手法を提案する。
- 参考スコア(独自算出の注目度): 15.125703603989715
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing methods in neural scene reconstruction utilize the Signed Distance Function (SDF) to model the density function. However, in indoor scenes, the density computed from the SDF for a sampled point may not consistently reflect its real importance in volume rendering, often due to the influence of neighboring objects. To tackle this issue, our work proposes a novel approach for indoor scene reconstruction, which instead parameterizes the density function with the Signed Ray Distance Function (SRDF). Firstly, the SRDF is predicted by the network and transformed to a ray-conditioned density function for volume rendering. We argue that the ray-specific SRDF only considers the surface along the camera ray, from which the derived density function is more consistent to the real occupancy than that from the SDF. Secondly, although SRDF and SDF represent different aspects of scene geometries, their values should share the same sign indicating the underlying spatial occupancy. Therefore, this work introduces a SRDF-SDF consistency loss to constrain the signs of the SRDF and SDF outputs. Thirdly, this work proposes a self-supervised visibility task, introducing the physical visibility geometry to the reconstruction task. The visibility task combines prior from predicted SRDF and SDF as pseudo labels, and contributes to generating more accurate 3D geometry. Our method implemented with different representations has been validated on indoor datasets, achieving improved performance in both reconstruction and view synthesis.
- Abstract(参考訳): ニューラルシーン再構築における既存の手法は、SDF(Signed Distance Function)を用いて密度関数をモデル化する。
しかし, 室内のシーンでは, SDFからサンプリングされた密度は, しばしば隣接する物体の影響により, ボリュームレンダリングにおいて常に重要であることを反映していない可能性がある。
そこで本研究では,信号線距離関数 (SRDF) を用いて密度関数をパラメータ化する屋内シーン再構成手法を提案する。
まず、SRDFはネットワークによって予測され、ボリュームレンダリングのための線条件密度関数に変換される。
我々は、SRDFがカメラ線に沿った表面のみを考慮し、そこから導出した密度関数は、SDFのそれよりも実際の占有とより一致していると主張している。
第2に、SRDFとSDFはシーンジオメトリの異なる側面を表すが、それらの値は、下層の空間占有度を示す同じ記号を共有するべきである。
そこで本研究では,SRDF出力とSDF出力の符号を制約するSRDF-SDF整合性損失を導入する。
第3に, 自己監督型視認性タスクを提案し, 再建作業に物理視認性幾何学を導入する。
視認性タスクは、予測されたSRDFとSDFを擬似ラベルとして組み合わせ、より正確な3D形状を生成するのに寄与する。
提案手法は,屋内のデータセット上で異なる表現で実装され,再現性およびビュー合成性能の向上を実現している。
関連論文リスト
- SplatSDF: Boosting Neural Implicit SDF via Gaussian Splatting Fusion [13.013832790126541]
我々は,3DGSandSDF-NeRFをアーキテクチャレベルで融合させる「SplatSDF」と呼ばれる新しいニューラル暗黙的SDFを提案し,幾何的および光度精度と収束速度を大幅に向上させた。
提案手法は,提案時の幾何的および測光的評価において,最先端のSDF-NeRFモデルより優れる。
論文 参考訳(メタデータ) (2024-11-23T06:35:19Z) - NeuRodin: A Two-stage Framework for High-Fidelity Neural Surface Reconstruction [63.85586195085141]
サイン付き距離関数 (SDF) を用いたボリュームレンダリングは, 表面再構成において有意な機能を示した。
ニューロディン(NeuRodin)は、新しい2段階の神経表面再構成フレームワークである。
NeuRodinは高忠実な表面再構成を実現し、密度ベース手法の柔軟な最適化特性を維持している。
論文 参考訳(メタデータ) (2024-08-19T17:36:35Z) - RaNeuS: Ray-adaptive Neural Surface Reconstruction [87.20343320266215]
微分可能放射場 eg NeRF を利用して、新しいビューレンダリングを生成するとともに、詳細な3次元表面を再構成する。
本研究では,SDFから放射場への射影を一様等間隔のアイコニカル正規化で定式化し,最適化することを考えると,光度重み付け係数を改良する。
提案する textitRaNeuS は,合成データと実データの両方で広く評価されている。
論文 参考訳(メタデータ) (2024-06-14T07:54:25Z) - DDF-HO: Hand-Held Object Reconstruction via Conditional Directed
Distance Field [82.81337273685176]
DDF-HOは、DDF(Directed Distance Field)を形状表現として活用する新しいアプローチである。
我々はランダムに複数の光線をサンプリングし、新しい2D線に基づく特徴集約方式を導入することにより、局所的・大域的特徴を収集する。
合成および実世界のデータセットの実験は、DFF-HOが全てのベースライン手法を大きなマージンで一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2023-08-16T09:06:32Z) - Learning a Room with the Occ-SDF Hybrid: Signed Distance Function
Mingled with Occupancy Aids Scene Representation [46.635542063913185]
符号付き距離関数表現と幾何学的先行表現を用いた暗黙的ニューラルレンダリングは、大規模シーンの表面再構成において顕著な進歩をもたらした。
我々は,原色レンダリング損失と先行組込みSDFシーン表現の限界を識別する実験を行った。
非ゼロな特徴値を用いて最適化信号を返却する特徴ベースの色レンダリング損失を提案する。
論文 参考訳(メタデータ) (2023-03-16T08:34:02Z) - NeuralUDF: Learning Unsigned Distance Fields for Multi-view
Reconstruction of Surfaces with Arbitrary Topologies [87.06532943371575]
本稿では2次元画像からボリュームレンダリングにより任意の位相で表面を再構成する新しい手法であるNeuralUDFを提案する。
本稿では,表面をUDF(Unsigned Distance Function)として表現し,ニューラルUDF表現を学習するための新しいボリュームレンダリング手法を提案する。
論文 参考訳(メタデータ) (2022-11-25T15:21:45Z) - Differentiable Rendering of Neural SDFs through Reparameterization [32.47993049026182]
ニューラルSDFにおける幾何学的シーンパラメータに対する正しい勾配を自動的に計算する手法を提案する。
提案手法は,地域サンプリング技術に基づいて,不連続性を考慮した連続的なワーピング機能を開発する。
我々の微分可能法は、多視点画像からの神経形状を最適化し、同等の3D再構成を生成できる。
論文 参考訳(メタデータ) (2022-06-10T20:30:26Z) - Gradient-SDF: A Semi-Implicit Surface Representation for 3D
Reconstruction [53.315347543761426]
Gradient-SDFは、暗黙的表現と明示的表現の利点を組み合わせた3次元幾何学の新しい表現である。
すべてのボクセルに符号付き距離場とその勾配ベクトル場を格納することにより、暗黙表現の能力を高める。
本研究では,(1)グラディエント・SDFは,ハッシュマップなどの効率的な記憶方式を用いて,深度画像からの直接SDF追跡を行うことができ,(2)グラディエント・SDF表現はボクセル表現で直接光度バンドル調整を行うことができることを示す。
論文 参考訳(メタデータ) (2021-11-26T18:33:14Z) - A Deep Signed Directional Distance Function for Object Shape
Representation [12.741811850885309]
本稿では,連続符号付き方向距離関数(SDDF)を最適化することにより,新しい距離ビューを可能にする新しい形状モデルを提案する。
任意の方向に最も近い表面までの距離を測定するSDFとは異なり、SDDFは所定の方向に距離を測定する。
本モデルは,SDDF値が視方向に沿って直線的に減少する特性を構成によって符号化する。
論文 参考訳(メタデータ) (2021-07-23T04:11:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。