論文の概要: Topology-Agnostic Animal Motion Generation from Text Prompt
- arxiv url: http://arxiv.org/abs/2512.10352v1
- Date: Thu, 11 Dec 2025 07:08:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:42.236556
- Title: Topology-Agnostic Animal Motion Generation from Text Prompt
- Title(参考訳): テキストプロンプトからのトポロジー非依存動物運動生成
- Authors: Keyi Chen, Mingze Sun, Zhenyu Liu, Zhangquan Chen, Ruqi Huang,
- Abstract要約: OmniZooは140種32,979配列にまたがる大規模動物運動データセットである。
本稿では,任意の骨格トポロジに対してテキスト駆動動作を生成可能な,一般化された自己回帰運動生成フレームワークを提案する。
- 参考スコア(独自算出の注目度): 16.557163253248817
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motion generation is fundamental to computer animation and widely used across entertainment, robotics, and virtual environments. While recent methods achieve impressive results, most rely on fixed skeletal templates, which prevent them from generalizing to skeletons with different or perturbed topologies. We address the core limitation of current motion generation methods - the combined lack of large-scale heterogeneous animal motion data and unified generative frameworks capable of jointly modeling arbitrary skeletal topologies and textual conditions. To this end, we introduce OmniZoo, a large-scale animal motion dataset spanning 140 species and 32,979 sequences, enriched with multimodal annotations. Building on OmniZoo, we propose a generalized autoregressive motion generation framework capable of producing text-driven motions for arbitrary skeletal topologies. Central to our model is a Topology-aware Skeleton Embedding Module that encodes geometric and structural properties of any skeleton into a shared token space, enabling seamless fusion with textual semantics. Given a text prompt and a target skeleton, our method generates temporally coherent, physically plausible, and semantically aligned motions, and further enables cross-species motion style transfer.
- Abstract(参考訳): モーション生成はコンピュータアニメーションの基本であり、エンターテイメント、ロボティクス、仮想環境に広く利用されている。
最近の方法では印象的な結果が得られるが、ほとんどの場合固定された骨格テンプレートに依存しており、異なるあるいは摂動したトポロジーを持つ骨格への一般化を妨げている。
運動生成法の中心的限界 - 大規模な異種動物の動きデータと、任意の骨格トポロジとテキスト条件を共同でモデル化できる統合生成フレームワークの欠如 - に対処する。
この目的のために,140種32,979配列からなる大規模動物運動データセットであるOmniZooを紹介した。
OmniZooをベースとした,任意の骨格トポロジのためのテキスト駆動型モーションを生成するための,一般化された自己回帰型モーション生成フレームワークを提案する。
私たちのモデルの中心は、任意の骨格の幾何学的および構造的特性を共有トークン空間にエンコードし、テキスト意味論とのシームレスな融合を可能にする、トポロジーを意識したSkeleton Embedding Moduleである。
テキストプロンプトとターゲットスケルトンが与えられた場合,本手法は時間的コヒーレント,身体的,意味的に整合した動作を生成し,さらに種間の動きスタイルの移動を可能にする。
関連論文リスト
- X-MoGen: Unified Motion Generation across Humans and Animals [9.967329240441844]
X-MoGenは、人間と動物の両方をカバーするクロス種テキスト駆動モーション生成のための最初の統一されたフレームワークである。
我々は115種の大規模データセットと119kのモーションシーケンスを構築し、共同トレーニングのための共有骨格トポロジーの下で人間と動物の動きを統合する。
UniMo4Dの実験では、X-MoGenは目に見える種と目に見えない種の両方で最先端の手法より優れていることが示されている。
論文 参考訳(メタデータ) (2025-08-07T08:51:51Z) - How to Move Your Dragon: Text-to-Motion Synthesis for Large-Vocabulary Objects [37.10752536568922]
多様なオブジェクトカテゴリのためのモーション合成は、3Dコンテンツ作成に大きな可能性を秘めている。
我々は、広範囲の高品質なモーションやアノテーションを含む包括的なモーションデータセットの欠如に対処する。
本稿では,一貫したダイナミクスを保ちながら,多様な動作データを生成するrig拡張手法を提案する。
論文 参考訳(メタデータ) (2025-03-06T09:39:09Z) - AnyTop: Character Animation Diffusion with Any Topology [54.07731933876742]
我々は,異なる動きダイナミクスを持つ多種多様な文字に対する動きを生成する拡散モデルであるAnyTopを紹介する。
我々の研究は、任意の骨格学習に適したトランスフォーマーベースの認知ネットワークを特徴としている。
我々の評価では、AnyTopsはトポロジー当たりのトレーニング例が3つも少なく、見えない骨格の運動も生成できる。
論文 参考訳(メタデータ) (2025-02-24T17:00:36Z) - OmniMotionGPT: Animal Motion Generation with Limited Data [70.35662376853163]
最初のテキストアニマルモーションデータセットであるAnimalML3Dを紹介した。
我々は,動物データに基づくヒトの動き生成ベースラインのトレーニング結果よりも定量的かつ質的に,高い多様性と忠実さで動物の動きを生成することができる。
論文 参考訳(メタデータ) (2023-11-30T07:14:00Z) - MoDi: Unconditional Motion Synthesis from Diverse Data [51.676055380546494]
多様な動きを合成する無条件生成モデルであるMoDiを提案する。
我々のモデルは、多様な、構造化されていない、ラベルなしのモーションデータセットから完全に教師なしの設定で訓練されている。
データセットに構造が欠けているにもかかわらず、潜在空間は意味的にクラスタ化可能であることを示す。
論文 参考訳(メタデータ) (2022-06-16T09:06:25Z) - Hierarchical Style-based Networks for Motion Synthesis [150.226137503563]
本研究では,特定の目標地点を達成するために,長距離・多種多様・多様な行動を生成する自己指導手法を提案する。
提案手法は,長距離生成タスクを階層的に分解することで人間の動作をモデル化する。
大規模な骨格データから, 提案手法は長距離, 多様な, もっともらしい動きを合成できることを示す。
論文 参考訳(メタデータ) (2020-08-24T02:11:02Z) - Skeleton-Aware Networks for Deep Motion Retargeting [83.65593033474384]
骨格間のデータ駆動動作のための新しいディープラーニングフレームワークを提案する。
我々の手法は、トレーニングセットの運動間の明確なペアリングを必要とせずに、再ターゲティングの仕方を学ぶ。
論文 参考訳(メタデータ) (2020-05-12T12:51:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。