論文の概要: Behave Your Motion: Habit-preserved Cross-category Animal Motion Transfer
- arxiv url: http://arxiv.org/abs/2507.07394v1
- Date: Thu, 10 Jul 2025 03:25:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-11 16:40:15.25877
- Title: Behave Your Motion: Habit-preserved Cross-category Animal Motion Transfer
- Title(参考訳): Behave your Motion: Habit- Preserved Cross-category Animal Motion Transfer
- Authors: Zhimin Zhang, Bi'an Du, Caoyuan Ma, Zheng Wang, Wei Hu,
- Abstract要約: 動物の動きは種固有の行動習慣を具現化しており、アニメーションやバーチャルリアリティーの応用において、カテゴリー間での運動の移動が重要で複雑なタスクとなっている。
動物間移動のための新しい習慣保存型移動伝達フレームワークを提案する。
DeformingThings4D-sklデータセットは骨格結合を持つ4倍のデータセットであり、広範な実験と定量的解析を行う。
- 参考スコア(独自算出の注目度): 13.123185551606143
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Animal motion embodies species-specific behavioral habits, making the transfer of motion across categories a critical yet complex task for applications in animation and virtual reality. Existing motion transfer methods, primarily focused on human motion, emphasize skeletal alignment (motion retargeting) or stylistic consistency (motion style transfer), often neglecting the preservation of distinct habitual behaviors in animals. To bridge this gap, we propose a novel habit-preserved motion transfer framework for cross-category animal motion. Built upon a generative framework, our model introduces a habit-preservation module with category-specific habit encoder, allowing it to learn motion priors that capture distinctive habitual characteristics. Furthermore, we integrate a large language model (LLM) to facilitate the motion transfer to previously unobserved species. To evaluate the effectiveness of our approach, we introduce the DeformingThings4D-skl dataset, a quadruped dataset with skeletal bindings, and conduct extensive experiments and quantitative analyses, which validate the superiority of our proposed model.
- Abstract(参考訳): 動物の動きは種固有の行動習慣を具現化しており、アニメーションやバーチャルリアリティーの応用において、カテゴリー間での運動の移動が重要で複雑なタスクとなっている。
既存の動き伝達法は、主に人間の動きに焦点を当て、骨格のアライメント(動きの再ターゲティング)やスタイリスティックな一貫性(動きスタイルの移動)を強調し、しばしば動物の異なる習慣的行動の保存を無視する。
このギャップを埋めるために,クロスカテゴリー動物運動のための新しい習慣保存型移動伝達フレームワークを提案する。
生成フレームワークをベースとしたモデルでは,カテゴリー固有の習慣エンコーダを備えた習慣保存モジュールを導入し,独特の習慣特性を捉えた動きの事前学習を可能にする。
さらに, 大型言語モデル (LLM) を統合し, 従来観測されていなかった種への移動を容易にする。
提案手法の有効性を評価するため,骨格結合を持つ4重結合データセットであるDeformingThings4D-sklデータセットを導入し,提案モデルの有効性を検証した。
関連論文リスト
- GENMO: A GENeralist Model for Human MOtion [64.16188966024542]
本稿では,1つのフレームワークで動作推定と生成を橋渡しする汎用人体運動モデル GENMO を提案する。
我々の重要な洞察は、出力運動が観測された条件信号を正確に満たさなければならないような制約された動き生成として運動推定を再構成することである。
我々の新しいアーキテクチャは、可変長動きと混合マルチモーダル条件(テキスト、オーディオ、ビデオ)を異なる時間間隔で処理し、柔軟な制御を提供する。
論文 参考訳(メタデータ) (2025-05-02T17:59:55Z) - Monkey See, Monkey Do: Harnessing Self-attention in Motion Diffusion for Zero-shot Motion Transfer [55.109778609058154]
既存の拡散に基づく運動編集法は、事前訓練されたモデルの重みに埋め込まれた前者の深いポテンシャルを見落としている。
動きパターンのキャプチャーと表現における注目要素の役割と相互作用を明らかにする。
我々はこれらの要素を統合して、従者のニュアンス特性を維持しつつ、従者へのリーダ動作の転送を行い、結果としてゼロショット動作の転送を実現した。
論文 参考訳(メタデータ) (2024-06-10T17:47:14Z) - MotionCrafter: One-Shot Motion Customization of Diffusion Models [66.44642854791807]
ワンショットのインスタンス誘導モーションカスタマイズ手法であるMotionCrafterを紹介する。
MotionCrafterは、基準運動をベースモデルの時間成分に注入する並列時空間アーキテクチャを採用している。
トレーニング中、凍結ベースモデルは外見の正規化を提供し、運動から効果的に外見を分離する。
論文 参考訳(メタデータ) (2023-12-08T16:31:04Z) - OmniMotionGPT: Animal Motion Generation with Limited Data [70.35662376853163]
最初のテキストアニマルモーションデータセットであるAnimalML3Dを紹介した。
我々は,動物データに基づくヒトの動き生成ベースラインのトレーニング結果よりも定量的かつ質的に,高い多様性と忠実さで動物の動きを生成することができる。
論文 参考訳(メタデータ) (2023-11-30T07:14:00Z) - Orientation-Aware Leg Movement Learning for Action-Driven Human Motion
Prediction [7.150292351809277]
行動駆動型人間の動き予測は、観察されたシーケンスに基づいて将来の人間の動きを予測することを目的としている。
複数のアクションラベル間のスムーズで現実的な遷移をモデル化する必要がある。
1つのデータセット上でトレーニングした中間学習モデルを、2つの目に見えない大規模な動きデータセットに一般化し、自然な遷移を生成する。
論文 参考訳(メタデータ) (2023-10-23T13:16:51Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - Exploring Versatile Prior for Human Motion via Motion Frequency Guidance [32.50770614788775]
我々は、人間の動きの固有確率分布をモデル化する多目的運動を事前に学習する枠組みを学習する。
効率的な事前表現学習のために,冗長な環境情報を除去するグローバル指向正規化を提案する。
そこで我々は,環境情報を学習可能な方法で入力動作データから切り離すための認知学習手法を採用した。
論文 参考訳(メタデータ) (2021-11-25T13:24:44Z) - Task-Generic Hierarchical Human Motion Prior using VAEs [44.356707509079044]
人間の動きを記述する深い生成モデルは、幅広いコンピュータビジョンやグラフィックタスクに役立てることができる。
本稿では,グローバル・ローカル・ラテント・スペースの組み合わせを用いて,特定のタスクに依存しない複雑な人間の動作を学習する手法を提案する。
映像に基づく人間のポーズ推定を含む様々なタスクにおいて,階層的な動き変動自動エンコーダの有効性を実証する。
論文 参考訳(メタデータ) (2021-06-07T23:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。