論文の概要: Gradient-SDF: A Semi-Implicit Surface Representation for 3D
Reconstruction
- arxiv url: http://arxiv.org/abs/2111.13652v1
- Date: Fri, 26 Nov 2021 18:33:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-29 17:26:15.798046
- Title: Gradient-SDF: A Semi-Implicit Surface Representation for 3D
Reconstruction
- Title(参考訳): Gradient-SDF : 3次元再構成のための半特異表面表現
- Authors: Christiane Sommer, Lu Sang, David Schubert, Daniel Cremers
- Abstract要約: Gradient-SDFは、暗黙的表現と明示的表現の利点を組み合わせた3次元幾何学の新しい表現である。
すべてのボクセルに符号付き距離場とその勾配ベクトル場を格納することにより、暗黙表現の能力を高める。
本研究では,(1)グラディエント・SDFは,ハッシュマップなどの効率的な記憶方式を用いて,深度画像からの直接SDF追跡を行うことができ,(2)グラディエント・SDF表現はボクセル表現で直接光度バンドル調整を行うことができることを示す。
- 参考スコア(独自算出の注目度): 53.315347543761426
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present Gradient-SDF, a novel representation for 3D geometry that combines
the advantages of implict and explicit representations. By storing at every
voxel both the signed distance field as well as its gradient vector field, we
enhance the capability of implicit representations with approaches originally
formulated for explicit surfaces. As concrete examples, we show that (1) the
Gradient-SDF allows us to perform direct SDF tracking from depth images, using
efficient storage schemes like hash maps, and that (2) the Gradient-SDF
representation enables us to perform photometric bundle adjustment directly in
a voxel representation (without transforming into a point cloud or mesh),
naturally a fully implicit optimization of geometry and camera poses and easy
geometry upsampling. Experimental results confirm that this leads to
significantly sharper reconstructions. Since the overall SDF voxel structure is
still respected, the proposed Gradient-SDF is equally suited for (GPU)
parallelization as related approaches.
- Abstract(参考訳): 本稿では,3次元幾何学の新しい表現であるGradient-SDFについて述べる。
符号付き距離場とその勾配ベクトル場の両方に保存することにより、元の明示曲面に対して定式化されたアプローチによる暗黙表現の能力を高める。
具体例として,(1)グラディエント・SDFは,ハッシュマップのような効率的な記憶方式を用いて,深度画像からの直接SDF追跡を行うことができ,(2)グラディエント・SDF表現は,(点雲やメッシュに変換することなく)ボクセル表現で直接光度バンドル調整を行うことができ,自然に幾何学的・カメラ的ポーズの完全暗黙的な最適化と容易に幾何アップサンプリングを行うことができることを示す。
実験の結果, より鋭い再建に繋がることが明らかとなった。
SDFのボクセル構造はいまだ尊重されているため、提案したGradient-SDFは関連するアプローチとして(GPU)並列化に等しく適している。
関連論文リスト
- Gradient Distance Function [52.615859148238464]
また,GDF (Gradient Distance Function) は表面上での微分可能でありながら,開口面を表現可能であることを示す。
これは、ノルムが表面への符号のない距離である3Dベクトルをそれぞれ3Dポイントに関連付けることによって行われる。
本稿では,ShapeNet Car,Multi-Garment,および3D-SceneデータセットにおけるGDFの有効性を示す。
論文 参考訳(メタデータ) (2024-10-29T18:04:01Z) - GS-Octree: Octree-based 3D Gaussian Splatting for Robust Object-level 3D Reconstruction Under Strong Lighting [4.255847344539736]
我々はオクツリーに基づく暗黙的な表面表現とガウススプラッティングを組み合わせた新しいアプローチを導入する。
SDFによる3次元ガウス分布を利用した本手法は,特に高輝度光による特徴強調画像において,より正確な形状を再構成する。
論文 参考訳(メタデータ) (2024-06-26T09:29:56Z) - RaNeuS: Ray-adaptive Neural Surface Reconstruction [87.20343320266215]
微分可能放射場 eg NeRF を利用して、新しいビューレンダリングを生成するとともに、詳細な3次元表面を再構成する。
本研究では,SDFから放射場への射影を一様等間隔のアイコニカル正規化で定式化し,最適化することを考えると,光度重み付け係数を改良する。
提案する textitRaNeuS は,合成データと実データの両方で広く評価されている。
論文 参考訳(メタデータ) (2024-06-14T07:54:25Z) - Probabilistic Directed Distance Fields for Ray-Based Shape Representations [8.134429779950658]
Directed Distance Fields (DDF) は、古典的な距離場の上に構築された新しいニューラルな形状表現である。
基礎分野における本質的な不連続性をモデル化する方法を示す。
次に, 単一形状のフィッティング, 生成モデリング, 単一像の3次元再構成など, DDFを応用した。
論文 参考訳(メタデータ) (2024-04-13T21:02:49Z) - DDF-HO: Hand-Held Object Reconstruction via Conditional Directed
Distance Field [82.81337273685176]
DDF-HOは、DDF(Directed Distance Field)を形状表現として活用する新しいアプローチである。
我々はランダムに複数の光線をサンプリングし、新しい2D線に基づく特徴集約方式を導入することにより、局所的・大域的特徴を収集する。
合成および実世界のデータセットの実験は、DFF-HOが全てのベースライン手法を大きなマージンで一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2023-08-16T09:06:32Z) - Differentiable Rendering of Neural SDFs through Reparameterization [32.47993049026182]
ニューラルSDFにおける幾何学的シーンパラメータに対する正しい勾配を自動的に計算する手法を提案する。
提案手法は,地域サンプリング技術に基づいて,不連続性を考慮した連続的なワーピング機能を開発する。
我々の微分可能法は、多視点画像からの神経形状を最適化し、同等の3D再構成を生成できる。
論文 参考訳(メタデータ) (2022-06-10T20:30:26Z) - Neural Geometric Level of Detail: Real-time Rendering with Implicit 3D
Shapes [77.6741486264257]
本稿では,高忠実度ニューラルネットワークSDFのリアルタイムレンダリングを可能にする,効率的なニューラル表現を提案する。
我々の表現は、以前の作品に比べてレンダリング速度の点で2~3桁の効率であることを示す。
論文 参考訳(メタデータ) (2021-01-26T18:50:22Z) - Coupling Explicit and Implicit Surface Representations for Generative 3D
Modeling [41.79675639550555]
本稿では,2つの相補的な形状表現を利用する3次元曲面を表現するニューラルアーキテクチャを提案する。
これら2つの表現は、新しい一貫性損失を導入することで相乗効果を得る。
我々のハイブリッドアーキテクチャの出力結果は、2つの等価な単一表現ネットワークの出力よりも優れている。
論文 参考訳(メタデータ) (2020-07-20T17:24:51Z) - Geometric Correspondence Fields: Learned Differentiable Rendering for 3D
Pose Refinement in the Wild [96.09941542587865]
野生の任意のカテゴリのオブジェクトに対する微分可能レンダリングに基づく新しい3次元ポーズ精細化手法を提案する。
このようにして、3DモデルとRGB画像のオブジェクトを正確に整列し、3Dポーズ推定を大幅に改善する。
我々は、Pix3Dデータセットの挑戦に対するアプローチを評価し、複数のメトリクスにおける最先端の精錬手法と比較して、最大55%の改善を実現した。
論文 参考訳(メタデータ) (2020-07-17T12:34:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。