論文の概要: Zero-Level-Set Encoder for Neural Distance Fields
- arxiv url: http://arxiv.org/abs/2310.06644v2
- Date: Mon, 5 Feb 2024 15:02:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 04:42:54.320319
- Title: Zero-Level-Set Encoder for Neural Distance Fields
- Title(参考訳): ニューラルネットワーク用ゼロレベルセットエンコーダ
- Authors: Stefan Rhys Jeske and Jonathan Klein and Dominik L. Michels and Jan
Bender
- Abstract要約: 本稿では,1つの前方パスに3次元形状を埋め込む新しいエンコーダデコーダニューラルネットワークを提案する。
ネットワークはアイコン方程式を解くために訓練されており、訓練と推論のためにゼロレベル集合の知識しか必要としない。
- 参考スコア(独自算出の注目度): 10.269224726391807
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural shape representation generally refers to representing 3D geometry
using neural networks, e.g., to compute a signed distance or occupancy value at
a specific spatial position. In this paper, we present a novel encoder-decoder
neural network for embedding 3D shapes in a single forward pass. Our
architecture is based on a multi-scale hybrid system incorporating graph-based
and voxel-based components, as well as a continuously differentiable decoder.
Furthermore, the network is trained to solve the Eikonal equation and only
requires knowledge of the zero-level set for training and inference. This means
that in contrast to most previous work, our network is able to output valid
signed distance fields without explicit prior knowledge of non-zero distance
values or shape occupancy. We further propose a modification of the loss
function in case that surface normals are not well defined, e.g., in the
context of non-watertight surfaces and non-manifold geometry. Overall, this can
help reduce the computational overhead of training and evaluating neural
distance fields, as well as enabling the application to difficult shapes. We
finally demonstrate the efficacy, generalizability and scalability of our
method on datasets consisting of deforming shapes, both based on simulated data
and raw 3D scans. We further show single-class and multi-class encoding, on
both fixed and variable vertex-count inputs, showcasing a wide range of
possible applications.
- Abstract(参考訳): 神経形状表現は一般的に、特定の空間位置で符号付き距離または占有値を計算するためにニューラルネットワークを使用する3次元幾何学を表す。
本稿では,1つの前方パスに3次元形状を埋め込む新しいエンコーダデコーダニューラルネットワークを提案する。
我々のアーキテクチャは、グラフベースおよびボクセルベースのコンポーネントを組み込んだマルチスケールハイブリッドシステムと、連続的に微分可能なデコーダに基づいている。
さらに、ネットワークはアイコン方程式を解くために訓練され、訓練と推論のためにゼロレベル集合の知識のみを必要とする。
これは、これまでのほとんどの作業とは対照的に、ネットワークは、非ゼロ距離値や形状占有率の明示的な事前知識なしに、有効な符号付き距離フィールドを出力することができることを意味する。
さらに, 非水密曲面や非多様体幾何学の文脈において, 表面正規性が十分に定義されていない場合の損失関数の修正を提案する。
全体として、これは神経距離フィールドのトレーニングと評価の計算オーバーヘッドを削減し、アプリケーションが難しい形状を可能にするのに役立つ。
シミュレーションデータと生の3Dスキャンに基づいて,変形形状からなるデータセットに対して,本手法の有効性,一般化性,拡張性を実証した。
さらに,固定頂点数入力と可変頂点数入力の両方で単一クラスおよび複数クラスエンコーディングを行い,多種多様な応用例を示す。
関連論文リスト
- OReX: Object Reconstruction from Planar Cross-sections Using Neural
Fields [10.862993171454685]
OReXはスライス単独で3次元形状を復元する手法であり、前者がニューラルネットワーク勾配である。
適度なニューラルネットワークは入力平面上でトレーニングされ、与えられた3D座標の内外推定を返却し、滑らかさと自己相似性を誘導する強力な先行を与える。
我々は、粗大な訓練を奨励する反復的な推定アーキテクチャと階層的な入力サンプリングスキームを提供し、訓練プロセスは後段の高周波に集中できるようにする。
論文 参考訳(メタデータ) (2022-11-23T11:44:35Z) - GraphCSPN: Geometry-Aware Depth Completion via Dynamic GCNs [49.55919802779889]
本稿では,グラフ畳み込みに基づく空間伝搬ネットワーク(GraphCSPN)を提案する。
本研究では、幾何学的表現学習において、畳み込みニューラルネットワークとグラフニューラルネットワークを相補的に活用する。
提案手法は,数段の伝搬ステップのみを使用する場合と比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-10-19T17:56:03Z) - Dual Octree Graph Networks for Learning Adaptive Volumetric Shape
Representations [21.59311861556396]
本手法は,3次元形状の体積場を,オクツリーによって構成された適応的特徴量で符号化する。
エンコーダ・デコーダネットワークは、オクツリーノードの二重グラフ上のグラフ畳み込みに基づいて、適応的な特徴量を学ぶように設計されている。
提案手法は, 形状詳細を効果的に符号化し, 高速な3次元形状復元を可能にし, 訓練カテゴリから3次元形状をモデル化するための優れた汎用性を示す。
論文 参考訳(メタデータ) (2022-05-05T17:56:34Z) - Learning Smooth Neural Functions via Lipschitz Regularization [92.42667575719048]
ニューラルフィールドにおけるスムーズな潜伏空間を促進するために設計された新しい正規化を導入する。
従来のリプシッツ正規化ネットワークと比較して、我々のアルゴリズムは高速で、4行のコードで実装できる。
論文 参考訳(メタデータ) (2022-02-16T21:24:54Z) - HyperCube: Implicit Field Representations of Voxelized 3D Models [18.868266675878996]
本稿では,3Dボクセルの直接処理を可能にするHyperCubeアーキテクチャを提案する。
ボクセル内から個々の3Dサンプルを処理するのではなく, 凸座標で表されるボクセル全体を入力できる。
論文 参考訳(メタデータ) (2021-10-12T06:56:48Z) - Neural Geometric Level of Detail: Real-time Rendering with Implicit 3D
Shapes [77.6741486264257]
本稿では,高忠実度ニューラルネットワークSDFのリアルタイムレンダリングを可能にする,効率的なニューラル表現を提案する。
我々の表現は、以前の作品に比べてレンダリング速度の点で2~3桁の効率であることを示す。
論文 参考訳(メタデータ) (2021-01-26T18:50:22Z) - Exploring Deep 3D Spatial Encodings for Large-Scale 3D Scene
Understanding [19.134536179555102]
生の3次元点雲の空間的特徴を非方向性グラフモデルに符号化することで,CNNに基づくアプローチの限界を克服する代替手法を提案する。
提案手法は、訓練時間とモデル安定性を改善して、最先端の精度で達成し、さらなる研究の可能性を示す。
論文 参考訳(メタデータ) (2020-11-29T12:56:19Z) - Neural-Pull: Learning Signed Distance Functions from Point Clouds by
Learning to Pull Space onto Surfaces [68.12457459590921]
3次元点雲から連続曲面を再構成することは、3次元幾何処理の基本的な操作である。
textitNeural-Pullは、シンプルで高品質なSDFを実現する新しいアプローチです。
論文 参考訳(メタデータ) (2020-11-26T23:18:10Z) - On the Effectiveness of Weight-Encoded Neural Implicit 3D Shapes [38.13954772608884]
ニューラル暗黙は、空間内の所定のクエリポイントが内部、外部、または表面にあるかどうかを示す番号を出力する。
従来の研究は_latent-encoded_ Neural implicitsに重点を置いており、特定の形状の潜在ベクトル符号化も入力として提供される。
_weight-encoded_ニューラル暗黙は潜伏ベクトルを抑え、単一形状の詳細に再構成精度を集中させる。
論文 参考訳(メタデータ) (2020-09-17T23:10:19Z) - Learning Local Neighboring Structure for Robust 3D Shape Representation [143.15904669246697]
3Dメッシュの表現学習は多くのコンピュータビジョンやグラフィックスアプリケーションにおいて重要である。
局所構造認識型異方性畳み込み操作(LSA-Conv)を提案する。
本モデルでは,3次元形状復元において最先端の手法に比べて顕著な改善が得られた。
論文 参考訳(メタデータ) (2020-04-21T13:40:03Z) - Implicit Functions in Feature Space for 3D Shape Reconstruction and
Completion [53.885984328273686]
Implicit Feature Networks (IF-Nets) は連続的な出力を提供し、複数のトポロジを扱える。
IF-NetsはShapeNetにおける3次元オブジェクト再構成における先行作業よりも明らかに優れており、より正確な3次元人間の再構成が得られる。
論文 参考訳(メタデータ) (2020-03-03T11:14:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。