論文の概要: Motion Puzzle: Arbitrary Motion Style Transfer by Body Part
- arxiv url: http://arxiv.org/abs/2202.05274v1
- Date: Thu, 10 Feb 2022 19:56:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-14 16:09:03.245600
- Title: Motion Puzzle: Arbitrary Motion Style Transfer by Body Part
- Title(参考訳): 運動プラグ:身体部分による任意運動スタイルの移動
- Authors: Deok-Kyeong Jang, Soomin Park, Sung-Hee Lee
- Abstract要約: モーション・パズル(Motion Puzzle)は、いくつかの重要な点において最先端のモーション・スタイル・トランスファー・ネットワークである。
本フレームワークは,異なる身体部位に対する複数のスタイル動作からスタイル特徴を抽出し,対象身体部位に局所的に伝達する。
フラッピングやスタッガーのようなダイナミックな動きによって表現されるスタイルを、以前の作品よりもはるかに良く捉えることができる。
- 参考スコア(独自算出の注目度): 6.206196935093063
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents Motion Puzzle, a novel motion style transfer network that
advances the state-of-the-art in several important respects. The Motion Puzzle
is the first that can control the motion style of individual body parts,
allowing for local style editing and significantly increasing the range of
stylized motions. Designed to keep the human's kinematic structure, our
framework extracts style features from multiple style motions for different
body parts and transfers them locally to the target body parts. Another major
advantage is that it can transfer both global and local traits of motion style
by integrating the adaptive instance normalization and attention modules while
keeping the skeleton topology. Thus, it can capture styles exhibited by dynamic
movements, such as flapping and staggering, significantly better than previous
work. In addition, our framework allows for arbitrary motion style transfer
without datasets with style labeling or motion pairing, making many publicly
available motion datasets available for training. Our framework can be easily
integrated with motion generation frameworks to create many applications, such
as real-time motion transfer. We demonstrate the advantages of our framework
with a number of examples and comparisons with previous work.
- Abstract(参考訳): 本稿では,いくつかの重要な点において最先端のモーショントランスファーネットワークであるモーションパズルについて述べる。
Motion Puzzleは、個々の身体部分の動作スタイルを制御し、局所的なスタイルの編集を可能にし、スタイリングされた動きの範囲を大幅に拡大する最初の製品である。
ヒトの運動構造を維持するために設計された本フレームワークは、異なる身体部位に対する複数のスタイル運動からスタイル特徴を抽出し、対象身体部位に局所的に伝達する。
もう1つの大きな利点は、適応インスタンス正規化とアテンションモジュールをスケルトントポロジを維持しながら統合することで、運動スタイルのグローバルおよびローカル特性の両方を転送できることである。
これにより、フラップやスタッガーなどのダイナミックな動きで表されるスタイルを、以前の作品よりもかなりうまく捉えることができる。
さらに,このフレームワークでは,スタイルラベリングやモーションペアリングを伴うデータセットを必要とせず,任意のモーションスタイル転送を可能にする。
我々のフレームワークはモーション生成フレームワークと簡単に統合でき、リアルタイムモーション転送など多くのアプリケーションを作成することができる。
フレームワークの利点を、いくつかの例と以前の作業との比較で示しています。
関連論文リスト
- Motion Prompting: Controlling Video Generation with Motion Trajectories [57.049252242807874]
スパースもしくは高密度なビデオ軌跡を条件とした映像生成モデルを訓練する。
ハイレベルなユーザリクエストを,詳細なセミセンスな動作プロンプトに変換する。
我々は、カメラや物体の動き制御、画像との「相互作用」、動画転送、画像編集など、様々な応用を通してアプローチを実証する。
論文 参考訳(メタデータ) (2024-12-03T18:59:56Z) - MikuDance: Animating Character Art with Mixed Motion Dynamics [28.189884806755153]
そこで我々は,混合運動力学を取り入れた拡散型パイプラインであるMikuDanceを提案し,キャラクターアートをアニメーション化する。
具体的には、動的カメラをピクセル単位の空間で明示的にモデル化し、一貫したキャラクターシーンのモーションモデリングを可能にするシーンモーショントラッキング戦略を示す。
モーション適応正規化モジュールは、グローバルなシーン動作を効果的に注入するために組み込まれ、総合的なキャラクターアートアニメーションの道を開く。
論文 参考訳(メタデータ) (2024-11-13T14:46:41Z) - Decoupling Contact for Fine-Grained Motion Style Transfer [21.61658765014968]
モーションスタイルの転送は、その内容を維持しながら動きのスタイルを変え、コンピュータアニメーションやゲームに有用である。
動作スタイルの伝達において、接触を分離して制御し、きめ細かい制御を行う方法は不明である。
本研究では,触覚の自然な動きと時空間変動を両立させながら,接触のきめ細かい制御を行う新しいスタイル伝達法を提案する。
論文 参考訳(メタデータ) (2024-09-09T07:33:14Z) - Puppet-Master: Scaling Interactive Video Generation as a Motion Prior for Part-Level Dynamics [67.97235923372035]
本稿では,対話型ビデオ生成モデルであるPuppet-Masterについて紹介する。
テスト時には、ひとつのイメージと粗い動き軌跡が与えられた場合、Puppet-Masterは、与えられたドラッグ操作に忠実な現実的な部分レベルの動きを描写したビデオを合成することができる。
論文 参考訳(メタデータ) (2024-08-08T17:59:38Z) - Monkey See, Monkey Do: Harnessing Self-attention in Motion Diffusion for Zero-shot Motion Transfer [55.109778609058154]
既存の拡散に基づく運動編集法は、事前訓練されたモデルの重みに埋め込まれた前者の深いポテンシャルを見落としている。
動きパターンのキャプチャーと表現における注目要素の役割と相互作用を明らかにする。
我々はこれらの要素を統合して、従者のニュアンス特性を維持しつつ、従者へのリーダ動作の転送を行い、結果としてゼロショット動作の転送を実現した。
論文 参考訳(メタデータ) (2024-06-10T17:47:14Z) - MotionCrafter: One-Shot Motion Customization of Diffusion Models [66.44642854791807]
ワンショットのインスタンス誘導モーションカスタマイズ手法であるMotionCrafterを紹介する。
MotionCrafterは、基準運動をベースモデルの時間成分に注入する並列時空間アーキテクチャを採用している。
トレーニング中、凍結ベースモデルは外見の正規化を提供し、運動から効果的に外見を分離する。
論文 参考訳(メタデータ) (2023-12-08T16:31:04Z) - TapMo: Shape-aware Motion Generation of Skeleton-free Characters [64.83230289993145]
骨格のない3Dキャラクタの広帯域における動作のためのテキスト駆動アニメーションパイプラインであるTapMoを提案する。
TapMoはMesh Handle PredictorとShape-aware Diffusion Moduleの2つの主要コンポーネントで構成されている。
論文 参考訳(メタデータ) (2023-10-19T12:14:32Z) - Motion In-Betweening with Phase Manifolds [29.673541655825332]
本稿では,周期的オートエンコーダによって学習された位相変数を利用して,文字のターゲットポーズに到達するための,新たなデータ駆動型動作制御システムを提案する。
提案手法では,経験的ニューラルネットワークモデルを用いて,空間と時間の両方のクラスタの動きを,異なる専門家の重みで解析する。
論文 参考訳(メタデータ) (2023-08-24T12:56:39Z) - Online Motion Style Transfer for Interactive Character Control [5.6151459129070505]
本稿では,ユーザ制御下で異なるスタイルの動作を生成し,リアルタイムに動作スタイルを伝達するエンド・ツー・エンドニューラルネットワークを提案する。
本手法は手作りのフェーズ機能の使用を排除し,ゲームシステムに容易にトレーニングし,直接デプロイすることができる。
論文 参考訳(メタデータ) (2022-03-30T15:23:37Z) - Unpaired Motion Style Transfer from Video to Animation [74.15550388701833]
1つのアニメーションクリップからもう1つのアニメーションクリップへモーションスタイルを転送する一方で、後者のモーションコンテンツを保存することは、キャラクターアニメーションにおいて長年の課題であった。
本稿では,スタイルラベル付き動きの集合から学習する動きスタイル伝達のための新しいデータ駆動フレームワークを提案する。
本フレームワークでは,映像から直接動作スタイルを抽出し,3次元再構成をバイパスし,これらを3次元入力動作に適用することができる。
論文 参考訳(メタデータ) (2020-05-12T13:21:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。