論文の概要: Augmenting Implicit Neural Shape Representations with Explicit
Deformation Fields
- arxiv url: http://arxiv.org/abs/2108.08931v1
- Date: Thu, 19 Aug 2021 22:07:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-23 23:57:11.136295
- Title: Augmenting Implicit Neural Shape Representations with Explicit
Deformation Fields
- Title(参考訳): 明示的変形場を用いた入射ニューラル形状表現の増強
- Authors: Matan Atzmon, David Novotny, Andrea Vedaldi, Yaron Lipman
- Abstract要約: 入射神経表現は、ニューラルネットワークのゼロレベルセットとして形状収集を学ぶための最近のアプローチである。
我々は,暗黙的ニューラル表現に対する変形認識正規化を提唱し,遅延コードの変化として可塑性変形を生成することを目的とした。
- 参考スコア(独自算出の注目度): 95.39603371087921
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Implicit neural representation is a recent approach to learn shape
collections as zero level-sets of neural networks, where each shape is
represented by a latent code. So far, the focus has been shape reconstruction,
while shape generalization was mostly left to generic encoder-decoder or
auto-decoder regularization.
In this paper we advocate deformation-aware regularization for implicit
neural representations, aiming at producing plausible deformations as latent
code changes. The challenge is that implicit representations do not capture
correspondences between different shapes, which makes it difficult to represent
and regularize their deformations. Thus, we propose to pair the implicit
representation of the shapes with an explicit, piecewise linear deformation
field, learned as an auxiliary function. We demonstrate that, by regularizing
these deformation fields, we can encourage the implicit neural representation
to induce natural deformations in the learned shape space, such as
as-rigid-as-possible deformations.
- Abstract(参考訳): 入射神経表現は、ニューラルネットワークのゼロレベルセットとして形状コレクションを学習する最近のアプローチであり、各形状は潜在コードで表現される。
これまでのところ、形状再構成に焦点が当てられ、形状一般化は主にジェネリックエンコーダデコーダやオートデコーダレギュラー化に委ねられていた。
本稿では,暗黙的ニューラル表現に対する変形認識正規化を提唱する。
課題は、暗黙の表現が異なる形状間の対応を捉えないため、それらの変形を表現し、規則化するのは難しいことである。
そこで, 形状の暗黙表現を, 補助関数として学習した明示的, 区分的な線形変形場と組み合わせることを提案する。
これらの変形場を正規化することにより、暗黙のニューラル表現を奨励し、学習された形状空間の自然な変形を誘導できることを示す。
関連論文リスト
- Self-supervised Learning of Implicit Shape Representation with Dense
Correspondence for Deformable Objects [26.102490905989338]
変形可能な物体に対する暗黙的形状表現を学習するための,新しい自己教師型アプローチを提案する。
本手法は, 骨格と皮膚の重量の先行を必要とせず, 符号付き距離場で表現される形状の収集のみを必要とする。
我々のモデルは大きな変形を伴う形状を表現することができ、テクスチャ転送や形状編集といった2つの典型的な応用をサポートすることができる。
論文 参考訳(メタデータ) (2023-08-24T06:38:33Z) - Neural Implicit Shape Editing using Boundary Sensitivity [12.621108702820313]
パラメータの摂動が形状境界をどう移動するかを表現するために境界感度を利用する。
これを用いて幾何学的編集を行い、グローバルに規定された変形を最もよく近似するパラメータ更新を求める。
論文 参考訳(メタデータ) (2023-04-24T13:04:15Z) - Reduced Representation of Deformation Fields for Effective Non-rigid
Shape Matching [26.77241999731105]
変形場の縮小表現を利用して,非剛体物体間の対応を計算するための新しい手法を提案する。
ネットワークは空間(ノード)における粗い位置の変形パラメータを学習させることにより、滑らかさを保証された閉形式の連続的な変形場を再構築する。
我々のモデルは高い表現力を持ち、複雑な変形を捉えることができる。
論文 参考訳(メタデータ) (2022-11-26T16:11:17Z) - NeuForm: Adaptive Overfitting for Neural Shape Editing [67.16151288720677]
我々は,各形状領域に最も適した表現を適応的に使用することにより,過度に適合した表現と一般化可能な表現の両方の利点を組み合わせるために,NEUFORMを提案する。
椅子やテーブル,ランプなど,人間が設計した形状のパーツの再構成に成功した編集を実演する。
2つの最先端のコンペティタを比較し、その結果の妥当性と忠実さに関して、明確な改善を実証する。
論文 参考訳(メタデータ) (2022-07-18T19:00:14Z) - Shape-Pose Disentanglement using SE(3)-equivariant Vector Neurons [59.83721247071963]
本研究では,点雲を標準形状表現に符号化するための教師なし手法を提案する。
エンコーダは安定で一貫性があり、形状のエンコーダは純粋にポーズ不変である。
抽出された回転と変換は、同じクラスの異なる入力形状を共通の標準ポーズに意味的に整合させることができる。
論文 参考訳(メタデータ) (2022-04-03T21:00:44Z) - Frame Averaging for Equivariant Shape Space Learning [85.42901997467754]
形状空間学習に対称性を組み込む自然な方法は、形状空間(エンコーダ)への写像と形状空間(デコーダ)からの写像が関連する対称性に同値であることを問うことである。
本稿では,2つのコントリビューションを導入することで,エンコーダとデコーダの等価性を組み込む枠組みを提案する。
論文 参考訳(メタデータ) (2021-12-03T06:41:19Z) - SNARF: Differentiable Forward Skinning for Animating Non-Rigid Neural
Implicit Shapes [117.76767853430243]
SNARFは多角形メッシュに対する線形ブレンドスキンの利点とニューラル暗黙表面の利点を組み合わせたものである。
反復ルート探索を用いて任意の変形点のすべての正準対応を探索するフォワードスキンモデルを提案する。
最先端のニューラルネットワークの暗黙的表現と比較すると,このアプローチは,精度を維持しつつ,未認識のポーズを一般化する。
論文 参考訳(メタデータ) (2021-04-08T17:54:59Z) - Deep Implicit Templates for 3D Shape Representation [70.9789507686618]
深い暗黙表現における明示的な対応推論を支援する新しい3次元形状表現を提案する。
我々のキーとなる考え方は、テンプレートの暗黙関数の条件変形としてDIFを定式化することである。
提案手法は,形状の集合に対する一般的な暗黙テンプレートを学習するだけでなく,すべての形状を相互に同時に対応させることも可能であることを示す。
論文 参考訳(メタデータ) (2020-11-30T06:01:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。