論文の概要: DiverseMotion: Towards Diverse Human Motion Generation via Discrete
Diffusion
- arxiv url: http://arxiv.org/abs/2309.01372v1
- Date: Mon, 4 Sep 2023 05:43:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-06 19:41:16.733980
- Title: DiverseMotion: Towards Diverse Human Motion Generation via Discrete
Diffusion
- Title(参考訳): diversitymotion:離散拡散による多様な人間の動き生成へ向けて
- Authors: Yunhong Lou, Linchao Zhu, Yaxiong Wang, Xiaohan Wang, Yi Yang
- Abstract要約: テキスト記述に基づく高品質な人間の動作を合成するための新しいアプローチであるDiverseMotionを提案する。
我々のDiverseMotionは、最先端のモーション品質と競争力の多様性を達成できることを示す。
- 参考スコア(独自算出の注目度): 70.33381660741861
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present DiverseMotion, a new approach for synthesizing high-quality human
motions conditioned on textual descriptions while preserving motion
diversity.Despite the recent significant process in text-based human motion
generation,existing methods often prioritize fitting training motions at the
expense of action diversity. Consequently, striking a balance between motion
quality and diversity remains an unresolved challenge. This problem is
compounded by two key factors: 1) the lack of diversity in motion-caption pairs
in existing benchmarks and 2) the unilateral and biased semantic understanding
of the text prompt, focusing primarily on the verb component while neglecting
the nuanced distinctions indicated by other words.In response to the first
issue, we construct a large-scale Wild Motion-Caption dataset (WMC) to extend
the restricted action boundary of existing well-annotated datasets, enabling
the learning of diverse motions through a more extensive range of actions. To
this end, a motion BLIP is trained upon a pretrained vision-language model,
then we automatically generate diverse motion captions for the collected motion
sequences. As a result, we finally build a dataset comprising 8,888 motions
coupled with 141k text.To comprehensively understand the text command, we
propose a Hierarchical Semantic Aggregation (HSA) module to capture the
fine-grained semantics.Finally,we involve the above two designs into an
effective Motion Discrete Diffusion (MDD) framework to strike a balance between
motion quality and diversity. Extensive experiments on HumanML3D and KIT-ML
show that our DiverseMotion achieves the state-of-the-art motion quality and
competitive motion diversity. Dataset, code, and pretrained models will be
released to reproduce all of our results.
- Abstract(参考訳): 本稿では,運動の多様性を保ちながら,文章記述に基づく高品質な人間の動作を合成する新しいアプローチであるdiversationmotionを提案する。
その結果、動きの質と多様性のバランスを崩すことは未解決の課題である。
この問題には2つの要因がある。
1)既存ベンチマークにおけるモーションキャプチャペアの多様性の欠如
2)テキストプロンプトの一方的かつ偏りのある意味理解は,動詞成分に主眼を置きながら,他の単語が示すニュアンスを無視する。第1号に応答して,既存のよく定義されたデータセットの制限された動作境界を拡張するために,大規模ワイルドモーションキャプチャデータセット(wmc)を構築し,より広範なアクションによる多様な動作の学習を可能にする。
この目的のために、事前訓練された視覚言語モデルに基づいて動きBLIPを訓練し、収集した動き列に対する多様な動きキャプションを自動的に生成する。
その結果,8,888の動作と141kテキストを組み合わせたデータセットを最終的に構築し,テキストコマンドを包括的に理解するために,細粒度セマンティックなセマンティックなセマンティックなセマンティックなセマンティックなセマンティックなセマンティクスを捕捉する階層的セマンティック・アグリゲーション(HSA)モジュールを提案する。
HumanML3DとKIT-MLの大規模な実験により、我々のDiverseMotionは最先端のモーション品質と競争力の多様性を達成することが示された。
データセット、コード、事前訓練されたモデルがリリースされ、すべての結果が再現されます。
関連論文リスト
- Seamless Human Motion Composition with Blended Positional Encodings [38.85158088021282]
後処理や冗長な復調ステップを伴わずにシームレスなヒューマン・モーション・コンポジション(HMC)を生成する最初の拡散モデルであるフローMDMを紹介する。
我々はBabelとHumanML3Dデータセットの精度、リアリズム、スムーズさの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2024-02-23T18:59:40Z) - MotionMix: Weakly-Supervised Diffusion for Controllable Motion
Generation [19.999239668765885]
MotionMixはノイズと無注釈の両方のモーションシーケンスを利用する弱い教師付き拡散モデルである。
我々のフレームワークは、テキスト・トゥ・モーション、アクション・トゥ・モーション、音楽・トゥ・ダンスのタスクにおける最先端のパフォーマンスを一貫して達成する。
論文 参考訳(メタデータ) (2024-01-20T04:58:06Z) - Priority-Centric Human Motion Generation in Discrete Latent Space [59.401128190423535]
テキスト・ツー・モーション生成のための優先中心運動離散拡散モデル(M2DM)を提案する。
M2DMは、コード崩壊に対処するために、グローバルな自己注意機構と正規化用語を組み込んでいる。
また、各動きトークンの重要度から決定される革新的なノイズスケジュールを用いた動き離散拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-08-28T10:40:16Z) - Executing your Commands via Motion Diffusion in Latent Space [51.64652463205012]
本研究では,動作遅延に基づく拡散モデル(MLD)を提案し,条件付き入力に対応する鮮明な動き列を生成する。
我々のMDDは、広範囲な人体運動生成タスクにおいて、最先端の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2022-12-08T03:07:00Z) - MoDi: Unconditional Motion Synthesis from Diverse Data [51.676055380546494]
多様な動きを合成する無条件生成モデルであるMoDiを提案する。
我々のモデルは、多様な、構造化されていない、ラベルなしのモーションデータセットから完全に教師なしの設定で訓練されている。
データセットに構造が欠けているにもかかわらず、潜在空間は意味的にクラスタ化可能であることを示す。
論文 参考訳(メタデータ) (2022-06-16T09:06:25Z) - Weakly-supervised Action Transition Learning for Stochastic Human Motion
Prediction [81.94175022575966]
動作駆動型人間の動作予測の課題について紹介する。
一連の動作ラベルと短い動作履歴から、複数の可算な将来の動作を予測することを目的としている。
論文 参考訳(メタデータ) (2022-05-31T08:38:07Z) - Towards Diverse and Natural Scene-aware 3D Human Motion Synthesis [117.15586710830489]
本研究では,ターゲットアクションシーケンスの誘導の下で,多様なシーンを意識した人間の動作を合成する問題に焦点をあてる。
この因子化スキームに基づいて、各サブモジュールが1つの側面をモデリングする責任を負う階層的なフレームワークが提案されている。
実験の結果,提案手法は,多様性と自然性の観点から,従来の手法よりも著しく優れていた。
論文 参考訳(メタデータ) (2022-05-25T18:20:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。