論文の概要: Neural Vector Fields for Surface Representation and Inference
- arxiv url: http://arxiv.org/abs/2204.06552v1
- Date: Wed, 13 Apr 2022 17:53:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-14 13:19:29.071329
- Title: Neural Vector Fields for Surface Representation and Inference
- Title(参考訳): 表面表現と推論のためのニューラルベクトル場
- Authors: Edoardo Mello Rella, Ajad Chhatkuli, Ender Konukoglu, and Luc Van Gool
- Abstract要約: 上記の2つの問題を克服するために,形状表現のためのニューラルベクトル場を提案する。
提案するニューラル暗黙フィールドは, 閉じた形状と開いた形状の両方を表現する上で, より優れた精度を示す。
- 参考スコア(独自算出の注目度): 73.25812045209001
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural implicit fields have recently been shown to represent 3D shapes
accurately, opening up various applications in 3D shape analysis. Up to now,
such implicit fields for 3D representation are scalar, encoding the signed
distance or binary volume occupancy and more recently the unsigned distance.
However, the first two can only represent closed shapes, while the unsigned
distance has difficulties in accurate and fast shape inference. In this paper,
we propose a Neural Vector Field for shape representation in order to overcome
the two aforementioned problems. Mapping each point in space to the direction
towards the closest surface, we can represent any type of shape. Similarly the
shape mesh can be reconstructed by applying the marching cubes algorithm, with
proposed small changes, on top of the inferred vector field. We compare the
method on ShapeNet where the proposed new neural implicit field shows superior
accuracy in representing both closed and open shapes outperforming previous
methods.
- Abstract(参考訳): ニューラル暗黙の場は3次元形状を正確に表現することが最近示され、3次元形状解析における様々な応用が開かれた。
これまでの3d表現の暗黙のフィールドはスカラーであり、符号付き距離やバイナリのボリューム占有率、最近では符号なし距離を符号化している。
しかし、最初の2つは閉じた形しか表現できないが、符号なし距離は正確かつ高速な形状推論では困難である。
本稿では,上記の2つの問題を克服するために,形状表現のためのニューラルベクトル場を提案する。
空間の各点を最も近い面に向かう方向にマッピングすることで、任意の種類の形状を表現できる。
同様に、形状メッシュは、推定ベクトル場の上に小さな変化が提案されているマーチングキューブアルゴリズムを適用することで再構成することができる。
提案するニューラル暗黙的場は,従来の手法よりも閉じた形状と開いた形状の両方を表現するのに優れた精度を示す。
関連論文リスト
- Statistical Edge Detection And UDF Learning For Shape Representation [1.9799527196428242]
得られたニューラルUDFの元の3次元表面への忠実度を向上させるUDFの学習法を提案する。
表面縁周辺でのトレーニング点のサンプリングにより,トレーニング済みのニューラルUDFの局所的精度が向上することを示す。
本手法は局所的な幾何学的記述子よりも表面のエッジを高精度に検出する。
論文 参考訳(メタデータ) (2024-05-06T11:40:57Z) - Surf-D: Generating High-Quality Surfaces of Arbitrary Topologies Using Diffusion Models [83.35835521670955]
Surf-Dは任意の位相を持つ表面として高品質な3次元形状を生成する新しい方法である。
非符号距離場(UDF)を曲面表現として用いて任意の位相を許容する。
また、ポイントベースのAutoEncoderを用いて、UDFを正確に符号化するためのコンパクトで連続的な潜在空間を学習する新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2023-11-28T18:56:01Z) - Neural Vector Fields: Implicit Representation by Explicit Learning [63.337294707047036]
ニューラルベクトル場 (Neural Vector Fields, NVF) という新しい3次元表現法を提案する。
メッシュを直接操作するための明示的な学習プロセスを採用するだけでなく、符号なし距離関数(UDF)の暗黙的な表現も採用している。
提案手法は,まず表面への変位クエリを予測し,テキスト再構成として形状をモデル化する。
論文 参考訳(メタデータ) (2023-03-08T02:36:09Z) - Deep Implicit Surface Point Prediction Networks [49.286550880464866]
暗黙の関数としての3次元形状の深い神経表現は、高忠実度モデルを生成することが示されている。
本稿では,CSP(Nest Surface-point)表現と呼ばれる新しい種類の暗黙の表現を用いて,そのような曲面をモデル化する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-10T14:31:54Z) - Concentric Spherical GNN for 3D Representation Learning [53.45704095146161]
同心球面特徴写像を学習するための新しい多解畳み込みアーキテクチャを提案する。
当社の階層的アーキテクチャは、球内情報と球間情報の両方を組み込むための代替学習に基づいています。
回転データを用いた3次元分類作業における最先端性能向上へのアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2021-03-18T19:05:04Z) - DUDE: Deep Unsigned Distance Embeddings for Hi-Fidelity Representation
of Complex 3D Surfaces [8.104199886760275]
DUDE は、非符号距離場 (uDF) を用いて表面との近接を表現し、正規ベクトル場 (nVF) は表面の向きを表現している。
この2つの組み合わせ (uDF+nVF) を用いて任意の開/閉形状の高忠実度表現を学習できることを示す。
論文 参考訳(メタデータ) (2020-11-04T22:49:05Z) - Neural Unsigned Distance Fields for Implicit Function Learning [53.241423815726925]
任意の3次元形状の符号なし距離場を予測するニューラルネットワークベースモデルであるニューラル距離場(NDF)を提案する。
NDFは、高解像度の表面を事前の暗黙のモデルとして表現するが、クローズドな表面データを必要としない。
NDFは、グラフィックスのレンダリングにのみ使用される技術を用いて、マルチターゲットレグレッション(1入力に複数の出力)に使用できる。
論文 参考訳(メタデータ) (2020-10-26T22:49:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。