論文の概要: Skeleton-free Pose Transfer for Stylized 3D Characters
- arxiv url: http://arxiv.org/abs/2208.00790v1
- Date: Thu, 28 Jul 2022 20:05:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-02 14:41:05.155835
- Title: Skeleton-free Pose Transfer for Stylized 3D Characters
- Title(参考訳): スタイリゼーション3dキャラクタのためのスケルトンフリーポーズ転送
- Authors: Zhouyingcheng Liao, Jimei Yang, Jun Saito, Gerard Pons-Moll, Yang Zhou
- Abstract要約: 骨格リグを使わずにスタイリングされた3D文字間でポーズを自動転送する最初の方法を提案する。
そこで本稿では,対象キャラクターを目的のポーズに合わせるために,キャラクタのスキニング重みと変形変形を共同で予測する新しいポーズ伝達ネットワークを提案する。
提案手法は,既存の文字データを一対のポーズとスタイル化された形状で吸収する半教師付き方式で訓練されている。
- 参考スコア(独自算出の注目度): 53.33996932633865
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present the first method that automatically transfers poses between
stylized 3D characters without skeletal rigging. In contrast to previous
attempts to learn pose transformations on fixed or topology-equivalent skeleton
templates, our method focuses on a novel scenario to handle skeleton-free
characters with diverse shapes, topologies, and mesh connectivities. The key
idea of our method is to represent the characters in a unified articulation
model so that the pose can be transferred through the correspondent parts. To
achieve this, we propose a novel pose transfer network that predicts the
character skinning weights and deformation transformations jointly to
articulate the target character to match the desired pose. Our method is
trained in a semi-supervised manner absorbing all existing character data with
paired/unpaired poses and stylized shapes. It generalizes well to unseen
stylized characters and inanimate objects. We conduct extensive experiments and
demonstrate the effectiveness of our method on this novel task.
- Abstract(参考訳): 骨格リグを使わずにスタイリングされた3D文字間でポーズを自動転送する最初の方法を提案する。
固定あるいはトポロジに等価な骨格テンプレート上でのポーズ変換を学習する以前の試みとは対照的に,本手法では,多様な形状,トポロジ,メッシュ接続性を持つ骨格のない文字を扱う新しいシナリオに焦点を当てている。
本手法の重要な考え方は,文字を統一的な調音モデルで表現することで,ポーズを対応部を通して伝達することである。
そこで本研究では,文字スキンの重みと変形変形を共同で予測し,対象文字を表現し,所望のポーズにマッチさせる新しいポーズ伝達ネットワークを提案する。
本手法は,既存のすべての文字データを対/非ペアポーズとスタイリッシュな形状で吸収する半教師あり方式で学習する。
目に見えないスタイルの文字や不定形オブジェクトをうまく一般化する。
本研究は,本手法の有効性を実証し,広範な実験を行った。
関連論文リスト
- VINECS: Video-based Neural Character Skinning [82.39776643541383]
ポーズ依存のスキン重みを持つ完全リップ文字を作成するための完全自動アプローチを提案する。
提案手法は高密度4Dスキャンに頼らず,最先端技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-07-03T08:35:53Z) - Zero-shot Pose Transfer for Unrigged Stylized 3D Characters [87.39039511208092]
我々は、訓練において広く利用可能な非スティル化アバターのみを必要とするゼロショットアプローチを提案する。
我々は局所的な変形のパワーを利用するが、明示的な対応ラベルは必要としない。
我々のモデルは、スタイル化された四重奏法のような、アノテーションの少ないカテゴリに一般化する。
論文 参考訳(メタデータ) (2023-05-31T21:39:02Z) - Neural Human Deformation Transfer [26.60034186410921]
人間の変形伝達の問題は、異なるキャラクター間でのポーズの再ターゲティングが目的である。
我々は異なるアプローチをとり、キャラクターのポーズを変更することなく、キャラクターのアイデンティティを新しいアイデンティティに変換する。
本研究では,本手法が定量的かつ定性的に,最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-09-03T15:51:30Z) - 3D Human Shape Style Transfer [21.73251261476412]
本稿では,任意の静的な実字体を用いて実動文字体の形状を変更・変更する問題を考察する。
伝統的な解決策は、移動する文字から元の文字の形まで、骨格的なポーズのパラメトリゼーションに依存するポーズ転送戦略に従う。
本稿では,移動キャラクタにソース形状を伝達する代替手法について検討する。
論文 参考訳(メタデータ) (2021-09-03T15:51:30Z) - Detailed Avatar Recovery from Single Image [50.82102098057822]
本稿では,単一画像からエンフデテールアバターを回収するための新しい枠組みを提案する。
階層的メッシュ変形フレームワークでは、ディープニューラルネットワークを使用して3次元形状を洗練しています。
本手法は,皮膚モデルを超えて,完全なテクスチャで詳細な人体形状を復元することができる。
論文 参考訳(メタデータ) (2021-08-06T03:51:26Z) - SCANimate: Weakly Supervised Learning of Skinned Clothed Avatar Networks [54.94737477860082]
本論文では,着る人間の生の3Dスキャンをイメージ可能なアバターに変える,エンドツーエンドのトレーニング可能なフレームワークを提案する。
SCANimateはカスタマイズされたメッシュテンプレートや表面メッシュ登録に依存しません。
本手法はポーズ認識型外観モデルに適用でき,完全にテクスチャ化されたアバターを生成できる。
論文 参考訳(メタデータ) (2021-04-07T17:59:58Z) - Single-Shot Freestyle Dance Reenactment [89.91619150027265]
ソースダンサーと対象者との間の動き伝達のタスクは、ポーズ伝達問題の特別なケースである。
本稿では,任意の映像シーケンスで1つの画像を再識別できる新しい手法を提案する。
論文 参考訳(メタデータ) (2020-12-02T12:57:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。