論文の概要: Gradient-SDF: A Semi-Implicit Surface Representation for 3D
Reconstruction
- arxiv url: http://arxiv.org/abs/2111.13652v1
- Date: Fri, 26 Nov 2021 18:33:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-29 17:26:15.798046
- Title: Gradient-SDF: A Semi-Implicit Surface Representation for 3D
Reconstruction
- Title(参考訳): Gradient-SDF : 3次元再構成のための半特異表面表現
- Authors: Christiane Sommer, Lu Sang, David Schubert, Daniel Cremers
- Abstract要約: Gradient-SDFは、暗黙的表現と明示的表現の利点を組み合わせた3次元幾何学の新しい表現である。
すべてのボクセルに符号付き距離場とその勾配ベクトル場を格納することにより、暗黙表現の能力を高める。
本研究では,(1)グラディエント・SDFは,ハッシュマップなどの効率的な記憶方式を用いて,深度画像からの直接SDF追跡を行うことができ,(2)グラディエント・SDF表現はボクセル表現で直接光度バンドル調整を行うことができることを示す。
- 参考スコア(独自算出の注目度): 53.315347543761426
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present Gradient-SDF, a novel representation for 3D geometry that combines
the advantages of implict and explicit representations. By storing at every
voxel both the signed distance field as well as its gradient vector field, we
enhance the capability of implicit representations with approaches originally
formulated for explicit surfaces. As concrete examples, we show that (1) the
Gradient-SDF allows us to perform direct SDF tracking from depth images, using
efficient storage schemes like hash maps, and that (2) the Gradient-SDF
representation enables us to perform photometric bundle adjustment directly in
a voxel representation (without transforming into a point cloud or mesh),
naturally a fully implicit optimization of geometry and camera poses and easy
geometry upsampling. Experimental results confirm that this leads to
significantly sharper reconstructions. Since the overall SDF voxel structure is
still respected, the proposed Gradient-SDF is equally suited for (GPU)
parallelization as related approaches.
- Abstract(参考訳): 本稿では,3次元幾何学の新しい表現であるGradient-SDFについて述べる。
符号付き距離場とその勾配ベクトル場の両方に保存することにより、元の明示曲面に対して定式化されたアプローチによる暗黙表現の能力を高める。
具体例として,(1)グラディエント・SDFは,ハッシュマップのような効率的な記憶方式を用いて,深度画像からの直接SDF追跡を行うことができ,(2)グラディエント・SDF表現は,(点雲やメッシュに変換することなく)ボクセル表現で直接光度バンドル調整を行うことができ,自然に幾何学的・カメラ的ポーズの完全暗黙的な最適化と容易に幾何アップサンプリングを行うことができることを示す。
実験の結果, より鋭い再建に繋がることが明らかとなった。
SDFのボクセル構造はいまだ尊重されているため、提案したGradient-SDFは関連するアプローチとして(GPU)並列化に等しく適している。
関連論文リスト
- Surf-D: High-Quality Surface Generation for Arbitrary Topologies using
Diffusion Models [84.70704129551245]
Surf-Dは任意の位相を持つ表面として高品質な3次元形状を生成する新しい方法である。
UDFは任意のトポロジを扱うのに優れており、複雑な形状を生成することができる。
論文 参考訳(メタデータ) (2023-11-28T18:56:01Z) - DDF-HO: Hand-Held Object Reconstruction via Conditional Directed
Distance Field [82.81337273685176]
DDF-HOは、DDF(Directed Distance Field)を形状表現として活用する新しいアプローチである。
我々はランダムに複数の光線をサンプリングし、新しい2D線に基づく特徴集約方式を導入することにより、局所的・大域的特徴を収集する。
合成および実世界のデータセットの実験は、DFF-HOが全てのベースライン手法を大きなマージンで一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2023-08-16T09:06:32Z) - Shape, Pose, and Appearance from a Single Image via Bootstrapped
Radiance Field Inversion [54.151979979158085]
提案手法では,自然画像に対する基本的エンドツーエンド再構築フレームワークを導入し,正確な地平のポーズが得られない。
そこで,モデルが解の第一の推算を生成するハイブリッド・インバージョン・スキームを適用する。
当社のフレームワークでは,イメージを10ステップでデレンダリングすることが可能で,現実的なシナリオで使用することが可能です。
論文 参考訳(メタデータ) (2022-11-21T17:42:42Z) - Differentiable Rendering of Neural SDFs through Reparameterization [32.47993049026182]
ニューラルSDFにおける幾何学的シーンパラメータに対する正しい勾配を自動的に計算する手法を提案する。
提案手法は,地域サンプリング技術に基づいて,不連続性を考慮した連続的なワーピング機能を開発する。
我々の微分可能法は、多視点画像からの神経形状を最適化し、同等の3D再構成を生成できる。
論文 参考訳(メタデータ) (2022-06-10T20:30:26Z) - Representing 3D Shapes with Probabilistic Directed Distance Fields [7.528141488548544]
暗黙的なアーキテクチャ内での高速な微分可能なレンダリングを可能にする新しい形状表現を開発する。
基礎分野における本質的な不連続性をモデル化する方法を示す。
また, 単一形状の3次元画像モデリング, 単一画像再構成作業にも適用した。
論文 参考訳(メタデータ) (2021-12-10T02:15:47Z) - Neural Geometric Level of Detail: Real-time Rendering with Implicit 3D
Shapes [77.6741486264257]
本稿では,高忠実度ニューラルネットワークSDFのリアルタイムレンダリングを可能にする,効率的なニューラル表現を提案する。
我々の表現は、以前の作品に比べてレンダリング速度の点で2~3桁の効率であることを示す。
論文 参考訳(メタデータ) (2021-01-26T18:50:22Z) - Coupling Explicit and Implicit Surface Representations for Generative 3D
Modeling [41.79675639550555]
本稿では,2つの相補的な形状表現を利用する3次元曲面を表現するニューラルアーキテクチャを提案する。
これら2つの表現は、新しい一貫性損失を導入することで相乗効果を得る。
我々のハイブリッドアーキテクチャの出力結果は、2つの等価な単一表現ネットワークの出力よりも優れている。
論文 参考訳(メタデータ) (2020-07-20T17:24:51Z) - Geometric Correspondence Fields: Learned Differentiable Rendering for 3D
Pose Refinement in the Wild [96.09941542587865]
野生の任意のカテゴリのオブジェクトに対する微分可能レンダリングに基づく新しい3次元ポーズ精細化手法を提案する。
このようにして、3DモデルとRGB画像のオブジェクトを正確に整列し、3Dポーズ推定を大幅に改善する。
我々は、Pix3Dデータセットの挑戦に対するアプローチを評価し、複数のメトリクスにおける最先端の精錬手法と比較して、最大55%の改善を実現した。
論文 参考訳(メタデータ) (2020-07-17T12:34:38Z) - Photometric Multi-View Mesh Refinement for High-Resolution Satellite
Images [24.245977127434212]
最先端の復元手法は一般的に2.5次元の標高データを生成する。
マルチビュー衛星画像から全3次元表面メッシュを復元する手法を提案する。
論文 参考訳(メタデータ) (2020-05-10T20:37:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。