論文の概要: How to Move Your Dragon: Text-to-Motion Synthesis for Large-Vocabulary Objects
- arxiv url: http://arxiv.org/abs/2503.04257v1
- Date: Thu, 06 Mar 2025 09:39:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-07 16:01:20.712504
- Title: How to Move Your Dragon: Text-to-Motion Synthesis for Large-Vocabulary Objects
- Title(参考訳): ドラゴンの移動方法:大語彙オブジェクトのためのテキスト・トゥ・モーション・シンセサイザー
- Authors: Wonkwang Lee, Jongwon Jeong, Taehong Moon, Hyeon-Jong Kim, Jaehyeon Kim, Gunhee Kim, Byeong-Uk Lee,
- Abstract要約: 多様なオブジェクトカテゴリのためのモーション合成は、3Dコンテンツ作成に大きな可能性を秘めている。
本稿では,多種多様かつ不明瞭な物体に対するテキスト記述から高忠実な動きを生成する手法を提案する。
実験により,本手法は多種多様かつ見えざる物体のテキスト記述から高忠実な動きを生成することができることがわかった。
- 参考スコア(独自算出の注目度): 37.10752536568922
- License:
- Abstract: Motion synthesis for diverse object categories holds great potential for 3D content creation but remains underexplored due to two key challenges: (1) the lack of comprehensive motion datasets that include a wide range of high-quality motions and annotations, and (2) the absence of methods capable of handling heterogeneous skeletal templates from diverse objects. To address these challenges, we contribute the following: First, we augment the Truebones Zoo dataset, a high-quality animal motion dataset covering over 70 species, by annotating it with detailed text descriptions, making it suitable for text-based motion synthesis. Second, we introduce rig augmentation techniques that generate diverse motion data while preserving consistent dynamics, enabling models to adapt to various skeletal configurations. Finally, we redesign existing motion diffusion models to dynamically adapt to arbitrary skeletal templates, enabling motion synthesis for a diverse range of objects with varying structures. Experiments show that our method learns to generate high-fidelity motions from textual descriptions for diverse and even unseen objects, setting a strong foundation for motion synthesis across diverse object categories and skeletal templates. Qualitative results are available on this link: t2m4lvo.github.io
- Abstract(参考訳): 多様なオブジェクトカテゴリの動作合成は3Dコンテンツ作成に大きな可能性を秘めているが,(1)高品質な動作やアノテーションを含む包括的な動作データセットの欠如,(2)多種多様なオブジェクトからの異種骨格テンプレートを扱う方法の欠如,という2つの大きな課題により,まだ探索されていない。
まず、70種以上をカバーする高品質な動物運動データセットであるTruebones Zooデータセットを、詳細なテキスト記述で注釈付けすることで、テキストベースのモーション合成に適したものにします。
第2に、一貫した力学を保ちながら多様な動きデータを生成するrig Augmentation技術を導入し、モデルが様々な骨格構成に適応できるようにする。
最後に、既存の動き拡散モデルを再設計し、任意の骨格テンプレートに動的に適用し、様々な構造を持つ様々な物体に対する動き合成を可能にする。
実験により,本手法は,多種多様かつ不明瞭な対象に対するテキスト記述から高忠実な動作を生成することを学習し,多様な対象カテゴリや骨格テンプレートにまたがる動き合成の強力な基盤となることを示す。
このリンクで質的な結果が得られる。 t2m4lvo.github.io
関連論文リスト
- Towards Open Domain Text-Driven Synthesis of Multi-Person Motions [36.737740727883924]
我々は、大規模な画像とビデオのデータセットからポーズ情報を推定することで、人間のポーズと動きのデータセットをキュレートする。
本手法は,多種多様なテキストプロンプトから多目的運動列を多種多様な多様性と忠実度で生成する最初の方法である。
論文 参考訳(メタデータ) (2024-05-28T18:00:06Z) - TapMo: Shape-aware Motion Generation of Skeleton-free Characters [64.83230289993145]
骨格のない3Dキャラクタの広帯域における動作のためのテキスト駆動アニメーションパイプラインであるTapMoを提案する。
TapMoはMesh Handle PredictorとShape-aware Diffusion Moduleの2つの主要コンポーネントで構成されている。
論文 参考訳(メタデータ) (2023-10-19T12:14:32Z) - DiverseMotion: Towards Diverse Human Motion Generation via Discrete
Diffusion [70.33381660741861]
テキスト記述に基づく高品質な人間の動作を合成するための新しいアプローチであるDiverseMotionを提案する。
我々のDiverseMotionは、最先端のモーション品質と競争力の多様性を達成できることを示す。
論文 参考訳(メタデータ) (2023-09-04T05:43:48Z) - Pretrained Diffusion Models for Unified Human Motion Synthesis [33.41816844381057]
MoFusionは統合されたモーション合成のためのフレームワークである。
多様な制御信号の挿入を容易にするためにTransformerのバックボーンを使用している。
また、身体部分の運動完了から全身運動生成まで、多粒性合成をサポートする。
論文 参考訳(メタデータ) (2022-12-06T09:19:21Z) - MotionDiffuse: Text-Driven Human Motion Generation with Diffusion Model [35.32967411186489]
MotionDiffuseは拡散モデルに基づくテキスト駆動モーション生成フレームワークである。
複雑なデータ分散をモデル化し、鮮やかなモーションシーケンスを生成するのに優れています。
体の部分のきめ細かい指示に反応し、時間経過したテキストプロンプトで任意の長さのモーション合成を行う。
論文 参考訳(メタデータ) (2022-08-31T17:58:54Z) - MoDi: Unconditional Motion Synthesis from Diverse Data [51.676055380546494]
多様な動きを合成する無条件生成モデルであるMoDiを提案する。
我々のモデルは、多様な、構造化されていない、ラベルなしのモーションデータセットから完全に教師なしの設定で訓練されている。
データセットに構造が欠けているにもかかわらず、潜在空間は意味的にクラスタ化可能であることを示す。
論文 参考訳(メタデータ) (2022-06-16T09:06:25Z) - Towards Diverse and Natural Scene-aware 3D Human Motion Synthesis [117.15586710830489]
本研究では,ターゲットアクションシーケンスの誘導の下で,多様なシーンを意識した人間の動作を合成する問題に焦点をあてる。
この因子化スキームに基づいて、各サブモジュールが1つの側面をモデリングする責任を負う階層的なフレームワークが提案されている。
実験の結果,提案手法は,多様性と自然性の観点から,従来の手法よりも著しく優れていた。
論文 参考訳(メタデータ) (2022-05-25T18:20:01Z) - Hierarchical Style-based Networks for Motion Synthesis [150.226137503563]
本研究では,特定の目標地点を達成するために,長距離・多種多様・多様な行動を生成する自己指導手法を提案する。
提案手法は,長距離生成タスクを階層的に分解することで人間の動作をモデル化する。
大規模な骨格データから, 提案手法は長距離, 多様な, もっともらしい動きを合成できることを示す。
論文 参考訳(メタデータ) (2020-08-24T02:11:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。