論文の概要: SNARF: Differentiable Forward Skinning for Animating Non-Rigid Neural
Implicit Shapes
- arxiv url: http://arxiv.org/abs/2104.03953v1
- Date: Thu, 8 Apr 2021 17:54:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-09 13:02:26.352555
- Title: SNARF: Differentiable Forward Skinning for Animating Non-Rigid Neural
Implicit Shapes
- Title(参考訳): SNARF:非リジッドニューラルインシシット形状のアニメーションのための微分フォワードスキニング
- Authors: Xu Chen, Yufeng Zheng, Michael J. Black, Otmar Hilliges, Andreas
Geiger
- Abstract要約: SNARFは多角形メッシュに対する線形ブレンドスキンの利点とニューラル暗黙表面の利点を組み合わせたものである。
反復ルート探索を用いて任意の変形点のすべての正準対応を探索するフォワードスキンモデルを提案する。
最先端のニューラルネットワークの暗黙的表現と比較すると,このアプローチは,精度を維持しつつ,未認識のポーズを一般化する。
- 参考スコア(独自算出の注目度): 117.76767853430243
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural implicit surface representations have emerged as a promising paradigm
to capture 3D shapes in a continuous and resolution-independent manner.
However, adapting them to articulated shapes is non-trivial. Existing
approaches learn a backward warp field that maps deformed to canonical points.
However, this is problematic since the backward warp field is pose dependent
and thus requires large amounts of data to learn. To address this, we introduce
SNARF, which combines the advantages of linear blend skinning (LBS) for
polygonal meshes with those of neural implicit surfaces by learning a forward
deformation field without direct supervision. This deformation field is defined
in canonical, pose-independent space, allowing for generalization to unseen
poses. Learning the deformation field from posed meshes alone is challenging
since the correspondences of deformed points are defined implicitly and may not
be unique under changes of topology. We propose a forward skinning model that
finds all canonical correspondences of any deformed point using iterative root
finding. We derive analytical gradients via implicit differentiation, enabling
end-to-end training from 3D meshes with bone transformations. Compared to
state-of-the-art neural implicit representations, our approach generalizes
better to unseen poses while preserving accuracy. We demonstrate our method in
challenging scenarios on (clothed) 3D humans in diverse and unseen poses.
- Abstract(参考訳): ニューラルな暗黙の表面表現は、連続的かつ解像度に依存しない方法で3次元形状をキャプチャするための有望なパラダイムとして登場した。
しかし、それらを明瞭な形に適応させることは非自明である。
既存のアプローチは、正準点に変形した逆ワープ場を学ぶ。
しかし、後方ワープフィールドはポーズに依存するため、学習するには大量のデータを必要とするため、これは問題となる。
そこで本研究では,多角形メッシュに対する線形ブレンドスキン(LBS)の利点とニューラル暗黙表面の利点を,直接の監督なしに前方変形場を学習することによって組み合わせたSNARFを提案する。
この変形場は標準的、ポーズ独立な空間で定義され、見えないポーズを一般化することができる。
変形点の対応は暗黙的に定義され、トポロジーの変化下では一意ではないため、ポーズ付きメッシュから変形場を学ぶことは困難である。
そこで本研究では,任意の変形点の正準対応を反復的ルート探索を用いて発見するフォワードスキニングモデルを提案する。
骨変化を伴う3次元メッシュからエンドツーエンドのトレーニングを可能にする,暗黙的な分化による分析勾配を導出する。
最先端のニューラルネットワークの暗黙的表現と比較すると,このアプローチは,精度を維持しつつ,未認識のポーズを一般化する。
我々は,多様で目立たないポーズの3D人間に挑戦するシナリオにおいて,本手法を実証する。
関連論文リスト
- Self-supervised Learning of Implicit Shape Representation with Dense
Correspondence for Deformable Objects [26.102490905989338]
変形可能な物体に対する暗黙的形状表現を学習するための,新しい自己教師型アプローチを提案する。
本手法は, 骨格と皮膚の重量の先行を必要とせず, 符号付き距離場で表現される形状の収集のみを必要とする。
我々のモデルは大きな変形を伴う形状を表現することができ、テクスチャ転送や形状編集といった2つの典型的な応用をサポートすることができる。
論文 参考訳(メタデータ) (2023-08-24T06:38:33Z) - Neural Shape Deformation Priors [14.14047635248036]
本稿では,新しい形状操作法であるニューラル・シェイプ・フォーメーション・プレファレンスを提案する。
形状の幾何学的性質に基づいて変形挙動を学習する。
本手法は, 難解な変形に対して適用可能であり, 未知の変形に対して良好に一般化できる。
論文 参考訳(メタデータ) (2022-10-11T17:03:25Z) - Animatable Implicit Neural Representations for Creating Realistic
Avatars from Videos [63.16888987770885]
本稿では,マルチビュー映像からアニマタブルな人間モデルを構築することの課題について述べる。
線形ブレンドスキンアルゴリズムに基づくポーズ駆動変形場を提案する。
提案手法は,近年の人体モデリング手法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2022-03-15T17:56:59Z) - Learning Smooth Neural Functions via Lipschitz Regularization [92.42667575719048]
ニューラルフィールドにおけるスムーズな潜伏空間を促進するために設計された新しい正規化を導入する。
従来のリプシッツ正規化ネットワークと比較して、我々のアルゴリズムは高速で、4行のコードで実装できる。
論文 参考訳(メタデータ) (2022-02-16T21:24:54Z) - Identity-Disentangled Neural Deformation Model for Dynamic Meshes [8.826835863410109]
我々は、暗黙の神経機能を用いたポーズ依存的な変形から、同一性によって引き起こされる形状変化を歪曲する神経変形モデルを学ぶ。
本稿では,大域的ポーズアライメントとニューラル変形モデルを統合する2つの手法を提案する。
また, 固定テンプレートの制約を伴わずにヤシの印刷や腱などの表面の細部を再構築する際に, 従来の骨格駆動モデルよりも優れていた。
論文 参考訳(メタデータ) (2021-09-30T17:43:06Z) - Augmenting Implicit Neural Shape Representations with Explicit
Deformation Fields [95.39603371087921]
入射神経表現は、ニューラルネットワークのゼロレベルセットとして形状収集を学ぶための最近のアプローチである。
我々は,暗黙的ニューラル表現に対する変形認識正規化を提唱し,遅延コードの変化として可塑性変形を生成することを目的とした。
論文 参考訳(メタデータ) (2021-08-19T22:07:08Z) - NeuroMorph: Unsupervised Shape Interpolation and Correspondence in One
Go [109.88509362837475]
入力2つの3次元形状を考慮したニューラルネットワークアーキテクチャであるNeuroMorphを提案する。
NeuroMorphはそれらの間のスムーズかつポイントツーポイント対応を生成する。
異なる対象カテゴリの非等尺性ペアを含む、さまざまな入力形状に対してうまく機能する。
論文 参考訳(メタデータ) (2021-06-17T12:25:44Z) - Deep Implicit Templates for 3D Shape Representation [70.9789507686618]
深い暗黙表現における明示的な対応推論を支援する新しい3次元形状表現を提案する。
我々のキーとなる考え方は、テンプレートの暗黙関数の条件変形としてDIFを定式化することである。
提案手法は,形状の集合に対する一般的な暗黙テンプレートを学習するだけでなく,すべての形状を相互に同時に対応させることも可能であることを示す。
論文 参考訳(メタデータ) (2020-11-30T06:01:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。