論文の概要: Probabilistic Directed Distance Fields for Ray-Based Shape Representations
- arxiv url: http://arxiv.org/abs/2404.09081v1
- Date: Sat, 13 Apr 2024 21:02:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-16 17:24:26.012495
- Title: Probabilistic Directed Distance Fields for Ray-Based Shape Representations
- Title(参考訳): レイベース形状表現のための確率的方向距離場
- Authors: Tristan Aumentado-Armstrong, Stavros Tsogkas, Sven Dickinson, Allan Jepson,
- Abstract要約: Directed Distance Fields (DDF) は、古典的な距離場の上に構築された新しいニューラルな形状表現である。
基礎分野における本質的な不連続性をモデル化する方法を示す。
次に, 単一形状のフィッティング, 生成モデリング, 単一像の3次元再構成など, DDFを応用した。
- 参考スコア(独自算出の注目度): 8.134429779950658
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In modern computer vision, the optimal representation of 3D shape continues to be task-dependent. One fundamental operation applied to such representations is differentiable rendering, as it enables inverse graphics approaches in learning frameworks. Standard explicit shape representations (voxels, point clouds, or meshes) are often easily rendered, but can suffer from limited geometric fidelity, among other issues. On the other hand, implicit representations (occupancy, distance, or radiance fields) preserve greater fidelity, but suffer from complex or inefficient rendering processes, limiting scalability. In this work, we devise Directed Distance Fields (DDFs), a novel neural shape representation that builds upon classical distance fields. The fundamental operation in a DDF maps an oriented point (position and direction) to surface visibility and depth. This enables efficient differentiable rendering, obtaining depth with a single forward pass per pixel, as well as differential geometric quantity extraction (e.g., surface normals), with only additional backward passes. Using probabilistic DDFs (PDDFs), we show how to model inherent discontinuities in the underlying field. We then apply DDFs to several applications, including single-shape fitting, generative modelling, and single-image 3D reconstruction, showcasing strong performance with simple architectural components via the versatility of our representation. Finally, since the dimensionality of DDFs permits view-dependent geometric artifacts, we conduct a theoretical investigation of the constraints necessary for view consistency. We find a small set of field properties that are sufficient to guarantee a DDF is consistent, without knowing, for instance, which shape the field is expressing.
- Abstract(参考訳): 現代のコンピュータビジョンでは、3次元形状の最適表現はタスク依存のままである。
このような表現に適用される基本的な操作の1つは、学習フレームワークにおける逆グラフィックスアプローチを可能にするため、微分可能レンダリングである。
標準的な明示的な形状表現(ボクセル、点雲、メッシュ)は、しばしば容易にレンダリングされるが、幾何学的忠実度に制限される。
一方、暗黙の表現(占有率、距離、放射界)はより忠実さを保つが、複雑なあるいは非効率なレンダリングプロセスに悩まされ、スケーラビリティが制限される。
本研究では,古典的距離場上に構築されたニューラル形状表現であるDDF(Directed Distance Fields)を考案した。
DDFの基本的な操作は、向き付けられた点(位置と方向)を表面の可視性と深さにマッピングする。
これにより、効率のよい微分可能レンダリングが可能となり、1ピクセルあたり1つの前方通過で深度を得ることができ、また、後方通過のみを追加して微分幾何学的量抽出(例えば、表面正規化)を行うことができる。
確率的DDF (PDDFs) を用いて, 基礎分野における固有不連続性をモデル化する方法を示す。
次に、DDFを複数のアプリケーションに適用し、例えば、単一形状のフィッティング、生成モデリング、単一像の3D再構成を行い、表現の汎用性を通じて、単純なアーキテクチャコンポーネントで強力な性能を示す。
最後に、DDFの次元性はビュー依存的な幾何学的アーティファクトを許容するので、ビュー整合性に必要な制約について理論的に検討する。
DDF が整合であることを保証するのに十分なフィールド特性の小さなセットを見つける。
関連論文リスト
- DDF-HO: Hand-Held Object Reconstruction via Conditional Directed
Distance Field [82.81337273685176]
DDF-HOは、DDF(Directed Distance Field)を形状表現として活用する新しいアプローチである。
我々はランダムに複数の光線をサンプリングし、新しい2D線に基づく特徴集約方式を導入することにより、局所的・大域的特徴を収集する。
合成および実世界のデータセットの実験は、DFF-HOが全てのベースライン手法を大きなマージンで一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2023-08-16T09:06:32Z) - Shape, Pose, and Appearance from a Single Image via Bootstrapped
Radiance Field Inversion [54.151979979158085]
提案手法では,自然画像に対する基本的エンドツーエンド再構築フレームワークを導入し,正確な地平のポーズが得られない。
そこで,モデルが解の第一の推算を生成するハイブリッド・インバージョン・スキームを適用する。
当社のフレームワークでは,イメージを10ステップでデレンダリングすることが可能で,現実的なシナリオで使用することが可能です。
論文 参考訳(メタデータ) (2022-11-21T17:42:42Z) - Multi-View Reconstruction using Signed Ray Distance Functions (SRDF) [22.75986869918975]
本稿では,体積の新たな形状表現に基づく新しい計算手法について検討する。
この表現に関連する形状エネルギーは、与えられたカラー画像の3次元形状を評価し、外観予測を必要としない。
実際には、カメラ線に沿った深さによってパラメータ化される符号付き距離に基づいて、暗黙の形状表現であるSRDFを提案する。
論文 参考訳(メタデータ) (2022-08-31T19:32:17Z) - NeuralODF: Learning Omnidirectional Distance Fields for 3D Shape
Representation [7.208066405543874]
ビジュアルコンピューティングでは、3D幾何はメッシュ、点雲、ボクセルグリッド、レベルセット、深度画像など様々な形で表現される。
オムニ距離場(Omni Distance Fields, ODFs)は, 物体表面の深度を任意の3次元位置から任意の視方向から保存することにより, 形状を符号化する新しい3次元形状表現である。
論文 参考訳(メタデータ) (2022-06-12T20:59:26Z) - Representing 3D Shapes with Probabilistic Directed Distance Fields [7.528141488548544]
暗黙的なアーキテクチャ内での高速な微分可能なレンダリングを可能にする新しい形状表現を開発する。
基礎分野における本質的な不連続性をモデル化する方法を示す。
また, 単一形状の3次元画像モデリング, 単一画像再構成作業にも適用した。
論文 参考訳(メタデータ) (2021-12-10T02:15:47Z) - Gradient-SDF: A Semi-Implicit Surface Representation for 3D
Reconstruction [53.315347543761426]
Gradient-SDFは、暗黙的表現と明示的表現の利点を組み合わせた3次元幾何学の新しい表現である。
すべてのボクセルに符号付き距離場とその勾配ベクトル場を格納することにより、暗黙表現の能力を高める。
本研究では,(1)グラディエント・SDFは,ハッシュマップなどの効率的な記憶方式を用いて,深度画像からの直接SDF追跡を行うことができ,(2)グラディエント・SDF表現はボクセル表現で直接光度バンドル調整を行うことができることを示す。
論文 参考訳(メタデータ) (2021-11-26T18:33:14Z) - Deep Implicit Surface Point Prediction Networks [49.286550880464866]
暗黙の関数としての3次元形状の深い神経表現は、高忠実度モデルを生成することが示されている。
本稿では,CSP(Nest Surface-point)表現と呼ばれる新しい種類の暗黙の表現を用いて,そのような曲面をモデル化する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-10T14:31:54Z) - Neural Geometric Level of Detail: Real-time Rendering with Implicit 3D
Shapes [77.6741486264257]
本稿では,高忠実度ニューラルネットワークSDFのリアルタイムレンダリングを可能にする,効率的なニューラル表現を提案する。
我々の表現は、以前の作品に比べてレンダリング速度の点で2~3桁の効率であることを示す。
論文 参考訳(メタデータ) (2021-01-26T18:50:22Z) - DUDE: Deep Unsigned Distance Embeddings for Hi-Fidelity Representation
of Complex 3D Surfaces [8.104199886760275]
DUDE は、非符号距離場 (uDF) を用いて表面との近接を表現し、正規ベクトル場 (nVF) は表面の向きを表現している。
この2つの組み合わせ (uDF+nVF) を用いて任意の開/閉形状の高忠実度表現を学習できることを示す。
論文 参考訳(メタデータ) (2020-11-04T22:49:05Z) - Neural Unsigned Distance Fields for Implicit Function Learning [53.241423815726925]
任意の3次元形状の符号なし距離場を予測するニューラルネットワークベースモデルであるニューラル距離場(NDF)を提案する。
NDFは、高解像度の表面を事前の暗黙のモデルとして表現するが、クローズドな表面データを必要としない。
NDFは、グラフィックスのレンダリングにのみ使用される技術を用いて、マルチターゲットレグレッション(1入力に複数の出力)に使用できる。
論文 参考訳(メタデータ) (2020-10-26T22:49:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。