論文の概要: Representing 3D Shapes with Probabilistic Directed Distance Fields
- arxiv url: http://arxiv.org/abs/2112.05300v1
- Date: Fri, 10 Dec 2021 02:15:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-13 14:08:10.429677
- Title: Representing 3D Shapes with Probabilistic Directed Distance Fields
- Title(参考訳): 確率的指向距離場を用いた3次元形状表現
- Authors: Tristan Aumentado-Armstrong, Stavros Tsogkas, Sven Dickinson, Allan
Jepson
- Abstract要約: 暗黙的なアーキテクチャ内での高速な微分可能なレンダリングを可能にする新しい形状表現を開発する。
基礎分野における本質的な不連続性をモデル化する方法を示す。
また, 単一形状の3次元画像モデリング, 単一画像再構成作業にも適用した。
- 参考スコア(独自算出の注目度): 7.528141488548544
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differentiable rendering is an essential operation in modern vision, allowing
inverse graphics approaches to 3D understanding to be utilized in modern
machine learning frameworks. Explicit shape representations (voxels, point
clouds, or meshes), while relatively easily rendered, often suffer from limited
geometric fidelity or topological constraints. On the other hand, implicit
representations (occupancy, distance, or radiance fields) preserve greater
fidelity, but suffer from complex or inefficient rendering processes, limiting
scalability. In this work, we endeavour to address both shortcomings with a
novel shape representation that allows fast differentiable rendering within an
implicit architecture. Building on implicit distance representations, we define
Directed Distance Fields (DDFs), which map an oriented point (position and
direction) to surface visibility and depth. Such a field can render a depth map
with a single forward pass per pixel, enable differential surface geometry
extraction (e.g., surface normals and curvatures) via network derivatives, be
easily composed, and permit extraction of classical unsigned distance fields.
Using probabilistic DDFs (PDDFs), we show how to model inherent discontinuities
in the underlying field. Finally, we apply our method to fitting single shapes,
unpaired 3D-aware generative image modelling, and single-image 3D
reconstruction tasks, showcasing strong performance with simple architectural
components via the versatility of our representation.
- Abstract(参考訳): 微分レンダリングは、現代のビジョンにおいて必須の操作であり、現代の機械学習フレームワークで3D理解への逆グラフィックアプローチを利用することができる。
明示的な形状表現(ボクセル、点雲、メッシュ)は比較的容易に表現できるが、しばしば幾何学的忠実さや位相的制約に悩まされる。
一方、暗黙の表現(占有率、距離、放射界)はより忠実さを保つが、複雑なあるいは非効率なレンダリングプロセスに悩まされ、スケーラビリティが制限される。
本研究では、暗黙的なアーキテクチャ内での高速な微分可能レンダリングを可能にする新しい形状表現を用いて、両方の欠点に対処する。
暗黙的な距離表現に基づいて、方向の点(位置と方向)を表面の可視性と深度にマッピングする方向距離場(Directed Distance Fields, DDF)を定義する。
そのようなフィールドは1ピクセルあたりの1つの前方パスで深度マップを描画し、微分曲面幾何学的抽出(例えば、表面正規度や曲率)をネットワークデリバティブを介して容易に構成でき、古典的符号なし距離場の抽出を許可することができる。
確率的DDF (PDDF) を用いて, 基礎分野における固有不連続性をモデル化する方法を示す。
最後に, 単一形状の3次元画像モデリング, 単一画像再構成タスクに適応し, 表現の汎用性を通じて, シンプルな構造部品を用いて強靭な性能を示す。
関連論文リスト
- Probabilistic Directed Distance Fields for Ray-Based Shape Representations [8.134429779950658]
Directed Distance Fields (DDF) は、古典的な距離場の上に構築された新しいニューラルな形状表現である。
基礎分野における本質的な不連続性をモデル化する方法を示す。
次に, 単一形状のフィッティング, 生成モデリング, 単一像の3次元再構成など, DDFを応用した。
論文 参考訳(メタデータ) (2024-04-13T21:02:49Z) - Shape, Pose, and Appearance from a Single Image via Bootstrapped
Radiance Field Inversion [54.151979979158085]
提案手法では,自然画像に対する基本的エンドツーエンド再構築フレームワークを導入し,正確な地平のポーズが得られない。
そこで,モデルが解の第一の推算を生成するハイブリッド・インバージョン・スキームを適用する。
当社のフレームワークでは,イメージを10ステップでデレンダリングすることが可能で,現実的なシナリオで使用することが可能です。
論文 参考訳(メタデータ) (2022-11-21T17:42:42Z) - Facial Geometric Detail Recovery via Implicit Representation [147.07961322377685]
そこで本研究では,一眼の顔画像のみを用いて,テクスチャガイドを用いた幾何的細部復元手法を提案する。
提案手法は,高品質なテクスチャ補完と暗黙の面の強力な表現性を組み合わせたものである。
本手法は, 顔の正確な細部を復元するだけでなく, 正常部, アルベド部, シェーディング部を自己監督的に分解する。
論文 参考訳(メタデータ) (2022-03-18T01:42:59Z) - Deep Marching Tetrahedra: a Hybrid Representation for High-Resolution 3D
Shape Synthesis [90.26556260531707]
DMTetは粗いボクセルのような単純なユーザーガイドを用いて高解像度の3次元形状を合成できる条件付き生成モデルである。
メッシュなどの明示的な表現を直接生成する深部3次元生成モデルとは異なり、我々のモデルは任意の位相で形状を合成することができる。
論文 参考訳(メタデータ) (2021-11-08T05:29:35Z) - DeepMesh: Differentiable Iso-Surface Extraction [53.77622255726208]
本稿では,Deep Implicit Fieldsから表面メッシュを明示的に表現する方法を提案する。
我々の重要な洞察は、暗黙の場摂動が局所的な表面形状にどのように影響するかを推論することによって、最終的に表面サンプルの3次元位置を区別できるということである。
私たちはこれを利用して、そのトポロジを変えることができるDeepMesh – エンドツーエンドの差別化可能なメッシュ表現を定義する。
論文 参考訳(メタデータ) (2021-06-20T20:12:41Z) - Deep Implicit Surface Point Prediction Networks [49.286550880464866]
暗黙の関数としての3次元形状の深い神経表現は、高忠実度モデルを生成することが示されている。
本稿では,CSP(Nest Surface-point)表現と呼ばれる新しい種類の暗黙の表現を用いて,そのような曲面をモデル化する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-10T14:31:54Z) - Neural Geometric Level of Detail: Real-time Rendering with Implicit 3D
Shapes [77.6741486264257]
本稿では,高忠実度ニューラルネットワークSDFのリアルタイムレンダリングを可能にする,効率的なニューラル表現を提案する。
我々の表現は、以前の作品に比べてレンダリング速度の点で2~3桁の効率であることを示す。
論文 参考訳(メタデータ) (2021-01-26T18:50:22Z) - MeshSDF: Differentiable Iso-Surface Extraction [45.769838982991736]
本稿では,Deep Signed Distance関数から表面メッシュを明示的に表現する方法を提案する。
我々の重要な洞察は、暗黙の場摂動が局所的な表面形状にどのように影響するかを推論することによって、最終的に表面サンプルの3次元位置を区別できるということである。
我々はこれを利用して、そのトポロジを変えることができるエンドツーエンドの差別化可能なメッシュ表現であるMeshSDFを定義します。
論文 参考訳(メタデータ) (2020-06-06T23:44:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。