論文の概要: Motion Puzzle: Arbitrary Motion Style Transfer by Body Part
- arxiv url: http://arxiv.org/abs/2202.05274v1
- Date: Thu, 10 Feb 2022 19:56:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-14 16:09:03.245600
- Title: Motion Puzzle: Arbitrary Motion Style Transfer by Body Part
- Title(参考訳): 運動プラグ:身体部分による任意運動スタイルの移動
- Authors: Deok-Kyeong Jang, Soomin Park, Sung-Hee Lee
- Abstract要約: モーション・パズル(Motion Puzzle)は、いくつかの重要な点において最先端のモーション・スタイル・トランスファー・ネットワークである。
本フレームワークは,異なる身体部位に対する複数のスタイル動作からスタイル特徴を抽出し,対象身体部位に局所的に伝達する。
フラッピングやスタッガーのようなダイナミックな動きによって表現されるスタイルを、以前の作品よりもはるかに良く捉えることができる。
- 参考スコア(独自算出の注目度): 6.206196935093063
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents Motion Puzzle, a novel motion style transfer network that
advances the state-of-the-art in several important respects. The Motion Puzzle
is the first that can control the motion style of individual body parts,
allowing for local style editing and significantly increasing the range of
stylized motions. Designed to keep the human's kinematic structure, our
framework extracts style features from multiple style motions for different
body parts and transfers them locally to the target body parts. Another major
advantage is that it can transfer both global and local traits of motion style
by integrating the adaptive instance normalization and attention modules while
keeping the skeleton topology. Thus, it can capture styles exhibited by dynamic
movements, such as flapping and staggering, significantly better than previous
work. In addition, our framework allows for arbitrary motion style transfer
without datasets with style labeling or motion pairing, making many publicly
available motion datasets available for training. Our framework can be easily
integrated with motion generation frameworks to create many applications, such
as real-time motion transfer. We demonstrate the advantages of our framework
with a number of examples and comparisons with previous work.
- Abstract(参考訳): 本稿では,いくつかの重要な点において最先端のモーショントランスファーネットワークであるモーションパズルについて述べる。
Motion Puzzleは、個々の身体部分の動作スタイルを制御し、局所的なスタイルの編集を可能にし、スタイリングされた動きの範囲を大幅に拡大する最初の製品である。
ヒトの運動構造を維持するために設計された本フレームワークは、異なる身体部位に対する複数のスタイル運動からスタイル特徴を抽出し、対象身体部位に局所的に伝達する。
もう1つの大きな利点は、適応インスタンス正規化とアテンションモジュールをスケルトントポロジを維持しながら統合することで、運動スタイルのグローバルおよびローカル特性の両方を転送できることである。
これにより、フラップやスタッガーなどのダイナミックな動きで表されるスタイルを、以前の作品よりもかなりうまく捉えることができる。
さらに,このフレームワークでは,スタイルラベリングやモーションペアリングを伴うデータセットを必要とせず,任意のモーションスタイル転送を可能にする。
我々のフレームワークはモーション生成フレームワークと簡単に統合でき、リアルタイムモーション転送など多くのアプリケーションを作成することができる。
フレームワークの利点を、いくつかの例と以前の作業との比較で示しています。
関連論文リスト
- MotionCrafter: One-Shot Motion Customization of Diffusion Models [66.44642854791807]
ワンショットのインスタンス誘導モーションカスタマイズ手法であるMotionCrafterを紹介する。
MotionCrafterは、基準運動をベースモデルの時間成分に注入する並列時空間アーキテクチャを採用している。
トレーニング中、凍結ベースモデルは外見の正規化を提供し、運動から効果的に外見を分離する。
論文 参考訳(メタデータ) (2023-12-08T16:31:04Z) - TapMo: Shape-aware Motion Generation of Skeleton-free Characters [64.83230289993145]
骨格のない3Dキャラクタの広帯域における動作のためのテキスト駆動アニメーションパイプラインであるTapMoを提案する。
TapMoはMesh Handle PredictorとShape-aware Diffusion Moduleの2つの主要コンポーネントで構成されている。
論文 参考訳(メタデータ) (2023-10-19T12:14:32Z) - Universal Humanoid Motion Representations for Physics-Based Control [74.53927919796139]
本稿では、ヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現について述べる。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - Motion In-Betweening with Phase Manifolds [29.673541655825332]
本稿では,周期的オートエンコーダによって学習された位相変数を利用して,文字のターゲットポーズに到達するための,新たなデータ駆動型動作制御システムを提案する。
提案手法では,経験的ニューラルネットワークモデルを用いて,空間と時間の両方のクラスタの動きを,異なる専門家の重みで解析する。
論文 参考訳(メタデータ) (2023-08-24T12:56:39Z) - Human MotionFormer: Transferring Human Motions with Vision Transformers [73.48118882676276]
人間の動き伝達は、運動合成のためにターゲットの動的人物からソースの静的人物に動きを伝達することを目的としている。
本稿では,世界的および地域的認識を活用して,大規模かつ微妙な動きマッチングを捉える階層型ViTフレームワークであるHuman MotionFormerを提案する。
我々のHuman MotionFormerは、定性的かつ定量的に新しい最先端のパフォーマンスをセットしている。
論文 参考訳(メタデータ) (2023-02-22T11:42:44Z) - MoDi: Unconditional Motion Synthesis from Diverse Data [51.676055380546494]
多様な動きを合成する無条件生成モデルであるMoDiを提案する。
我々のモデルは、多様な、構造化されていない、ラベルなしのモーションデータセットから完全に教師なしの設定で訓練されている。
データセットに構造が欠けているにもかかわらず、潜在空間は意味的にクラスタ化可能であることを示す。
論文 参考訳(メタデータ) (2022-06-16T09:06:25Z) - Online Motion Style Transfer for Interactive Character Control [5.6151459129070505]
本稿では,ユーザ制御下で異なるスタイルの動作を生成し,リアルタイムに動作スタイルを伝達するエンド・ツー・エンドニューラルネットワークを提案する。
本手法は手作りのフェーズ機能の使用を排除し,ゲームシステムに容易にトレーニングし,直接デプロイすることができる。
論文 参考訳(メタデータ) (2022-03-30T15:23:37Z) - Style-ERD: Responsive and Coherent Online Motion Style Transfer [13.15016322155052]
スタイル転送はキャラクターアニメーションを豊かにする一般的な方法である。
動きをオンラインでスタイル化するための新しいスタイル転送モデルであるStyle-ERDを提案する。
本手法は,動作を複数のターゲットスタイルに統一したモデルでスタイリングする。
論文 参考訳(メタデータ) (2022-03-04T21:12:09Z) - Unpaired Motion Style Transfer from Video to Animation [74.15550388701833]
1つのアニメーションクリップからもう1つのアニメーションクリップへモーションスタイルを転送する一方で、後者のモーションコンテンツを保存することは、キャラクターアニメーションにおいて長年の課題であった。
本稿では,スタイルラベル付き動きの集合から学習する動きスタイル伝達のための新しいデータ駆動フレームワークを提案する。
本フレームワークでは,映像から直接動作スタイルを抽出し,3次元再構成をバイパスし,これらを3次元入力動作に適用することができる。
論文 参考訳(メタデータ) (2020-05-12T13:21:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。