論文の概要: MikuDance: Animating Character Art with Mixed Motion Dynamics
- arxiv url: http://arxiv.org/abs/2411.08656v2
- Date: Thu, 14 Nov 2024 14:11:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-15 11:44:48.361205
- Title: MikuDance: Animating Character Art with Mixed Motion Dynamics
- Title(参考訳): MikuDance: モーションダイナミクスによるキャラクターアートのアニメーション
- Authors: Jiaxu Zhang, Xianfang Zeng, Xin Chen, Wei Zuo, Gang Yu, Zhigang Tu,
- Abstract要約: そこで我々は,混合運動力学を取り入れた拡散型パイプラインであるMikuDanceを提案し,キャラクターアートをアニメーション化する。
具体的には、動的カメラをピクセル単位の空間で明示的にモデル化し、一貫したキャラクターシーンのモーションモデリングを可能にするシーンモーショントラッキング戦略を示す。
モーション適応正規化モジュールは、グローバルなシーン動作を効果的に注入するために組み込まれ、総合的なキャラクターアートアニメーションの道を開く。
- 参考スコア(独自算出の注目度): 28.189884806755153
- License:
- Abstract: We propose MikuDance, a diffusion-based pipeline incorporating mixed motion dynamics to animate stylized character art. MikuDance consists of two key techniques: Mixed Motion Modeling and Mixed-Control Diffusion, to address the challenges of high-dynamic motion and reference-guidance misalignment in character art animation. Specifically, a Scene Motion Tracking strategy is presented to explicitly model the dynamic camera in pixel-wise space, enabling unified character-scene motion modeling. Building on this, the Mixed-Control Diffusion implicitly aligns the scale and body shape of diverse characters with motion guidance, allowing flexible control of local character motion. Subsequently, a Motion-Adaptive Normalization module is incorporated to effectively inject global scene motion, paving the way for comprehensive character art animation. Through extensive experiments, we demonstrate the effectiveness and generalizability of MikuDance across various character art and motion guidance, consistently producing high-quality animations with remarkable motion dynamics.
- Abstract(参考訳): そこで本研究では,混合運動力学を取り入れた拡散型パイプラインであるMikuDanceを提案する。
MikuDanceは2つの重要な技術で構成されている: 混合運動モデリングと混合制御拡散(Mixed-Control Diffusion)は、キャラクターアートアニメーションにおけるハイダイナミックモーションと参照誘導ミスアライメントの課題に対処する。
具体的には、動的カメラをピクセル単位の空間で明示的にモデル化し、一貫したキャラクターシーンのモーションモデリングを可能にするシーンモーショントラッキング戦略を示す。
ミックス・コントロル拡散(Mixed-Control Diffusion)は、様々なキャラクターのスケールと体型を動き誘導で暗黙的に調整し、局所的なキャラクターの動きを柔軟に制御する。
その後、モーション適応正規化モジュールが組み込まれ、グローバルなシーン動作を効果的に注入し、総合的なキャラクターアートアニメーションの道を開く。
広範にわたる実験を通じて,様々なキャラクターアートやモーションガイダンスにまたがるMikuDanceの有効性と一般化性を実証し,優れたモーションダイナミクスを備えた高品質なアニメーションを一貫して生成する。
関連論文リスト
- X-Dyna: Expressive Dynamic Human Image Animation [49.896933584815926]
X-Dynaは、単一の人間のイメージをアニメーションするための、ゼロショットで拡散ベースのパイプラインである。
対象と周辺環境の両方に対して現実的でコンテキスト対応のダイナミクスを生成する。
論文 参考訳(メタデータ) (2025-01-17T08:10:53Z) - Move-in-2D: 2D-Conditioned Human Motion Generation [54.067588636155115]
そこで我々は,シーンイメージに条件付けされた人間の動作シーケンスを生成する新しい手法であるMove-in-2Dを提案する。
本手法はシーンイメージとテキストプロンプトの両方を入力として受け入れ,シーンに合わせた動作シーケンスを生成する。
論文 参考訳(メタデータ) (2024-12-17T18:58:07Z) - Motion Prompting: Controlling Video Generation with Motion Trajectories [57.049252242807874]
スパースもしくは高密度なビデオ軌跡を条件とした映像生成モデルを訓練する。
ハイレベルなユーザリクエストを,詳細なセミセンスな動作プロンプトに変換する。
我々は、カメラや物体の動き制御、画像との「相互作用」、動画転送、画像編集など、様々な応用を通してアプローチを実証する。
論文 参考訳(メタデータ) (2024-12-03T18:59:56Z) - Animate-X: Universal Character Image Animation with Enhanced Motion Representation [42.73097432203482]
Animate-X は LDM をベースとした汎用アニメーションフレームワークであり、人為的文字を含む様々な文字タイプに対応している。
我々は、暗黙的かつ明示的な方法で、運転映像から包括的な動きパターンをキャプチャするPose Indicatorを紹介した。
また,アニメーション画像におけるAnimate-Xの性能を評価するために,新しいアニメーション擬人化ベンチマークを導入する。
論文 参考訳(メタデータ) (2024-10-14T09:06:55Z) - MotionCrafter: One-Shot Motion Customization of Diffusion Models [66.44642854791807]
ワンショットのインスタンス誘導モーションカスタマイズ手法であるMotionCrafterを紹介する。
MotionCrafterは、基準運動をベースモデルの時間成分に注入する並列時空間アーキテクチャを採用している。
トレーニング中、凍結ベースモデルは外見の正規化を提供し、運動から効果的に外見を分離する。
論文 参考訳(メタデータ) (2023-12-08T16:31:04Z) - TapMo: Shape-aware Motion Generation of Skeleton-free Characters [64.83230289993145]
骨格のない3Dキャラクタの広帯域における動作のためのテキスト駆動アニメーションパイプラインであるTapMoを提案する。
TapMoはMesh Handle PredictorとShape-aware Diffusion Moduleの2つの主要コンポーネントで構成されている。
論文 参考訳(メタデータ) (2023-10-19T12:14:32Z) - Motion Puzzle: Arbitrary Motion Style Transfer by Body Part [6.206196935093063]
モーション・パズル(Motion Puzzle)は、いくつかの重要な点において最先端のモーション・スタイル・トランスファー・ネットワークである。
本フレームワークは,異なる身体部位に対する複数のスタイル動作からスタイル特徴を抽出し,対象身体部位に局所的に伝達する。
フラッピングやスタッガーのようなダイナミックな動きによって表現されるスタイルを、以前の作品よりもはるかに良く捉えることができる。
論文 参考訳(メタデータ) (2022-02-10T19:56:46Z) - Real-time Deep Dynamic Characters [95.5592405831368]
本研究では,高度にリアルな形状,動き,ダイナミックな外観を示す3次元人物モデルを提案する。
我々は,新しいグラフ畳み込みネットワークアーキテクチャを用いて,身体と衣服の運動依存的変形学習を実現する。
本モデルでは, 運動依存的表面変形, 物理的に妥当な動的衣服変形, および映像現実的表面テクスチャを, 従来よりも細部まで高レベルに生成することを示す。
論文 参考訳(メタデータ) (2021-05-04T23:28:55Z) - Self-supervised Motion Learning from Static Images [36.85209332144106]
Motion from Static Images (MoSI) はモーション情報をエンコードすることを学ぶ。
MoSIは、下流のデータセットを微調整することなく、大きな動きを持つ領域を発見することができる。
下流のデータセットを微調整することなく、MoSIが大きな動きを持つ領域を発見できることを実証します。
論文 参考訳(メタデータ) (2021-04-01T03:55:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。