論文の概要: Human Motion Diffusion Model
- arxiv url: http://arxiv.org/abs/2209.14916v2
- Date: Mon, 3 Oct 2022 09:17:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 10:51:22.031070
- Title: Human Motion Diffusion Model
- Title(参考訳): 人間の運動拡散モデル
- Authors: Guy Tevet, Sigal Raab, Brian Gordon, Yonatan Shafir, Daniel Cohen-Or
and Amit H. Bermano
- Abstract要約: 運動拡散モデル(英: Motion Diffusion Model、MDM)は、人間の動作領域に対する変換器に基づく生成モデルである。
我々は,本モデルが軽量な資源で訓練されていることを示すとともに,テキスト・トゥ・モーションとアクション・トゥ・モーションのベンチマークにおいて,最先端の結果が得られることを示した。
- 参考スコア(独自算出の注目度): 35.05219668478535
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Natural and expressive human motion generation is the holy grail of computer
animation. It is a challenging task, due to the diversity of possible motion,
human perceptual sensitivity to it, and the difficulty of accurately describing
it. Therefore, current generative solutions are either low-quality or limited
in expressiveness. Diffusion models, which have already shown remarkable
generative capabilities in other domains, are promising candidates for human
motion due to their many-to-many nature, but they tend to be resource hungry
and hard to control. In this paper, we introduce Motion Diffusion Model (MDM),
a carefully adapted classifier-free diffusion-based generative model for the
human motion domain. MDM is transformer-based, combining insights from motion
generation literature. A notable design-choice is the prediction of the sample,
rather than the noise, in each diffusion step. This facilitates the use of
established geometric losses on the locations and velocities of the motion,
such as the foot contact loss. As we demonstrate, MDM is a generic approach,
enabling different modes of conditioning, and different generation tasks. We
show that our model is trained with lightweight resources and yet achieves
state-of-the-art results on leading benchmarks for text-to-motion and
action-to-motion. https://guytevet.github.io/mdm-page/ .
- Abstract(参考訳): 自然で表現力のある人間のモーション生成は、コンピュータアニメーションの聖杯である。
これは、起こりうる動きの多様性、人間の知覚的感受性、正確に記述することの難しさなど、困難な課題である。
したがって、現在の生成解は低品質か表現性に制限がある。
拡散モデルは、他の領域ですでに顕著な生成能力を示しており、その多対多の性質から、人間の運動の候補として有望であるが、リソース不足で制御が難しい傾向がある。
本稿では,人間の動作領域に対する分類器のない拡散型生成モデルである運動拡散モデル(MDM)を紹介する。
mdmはトランスフォーマティブベースであり、モーションジェネレーションの文献からの洞察を組み合わせる。
注目すべき設計選択は、各拡散ステップにおけるノイズではなく、サンプルの予測である。
これにより、足の接触損失のような動きの位置や速度において確立された幾何学的損失の使用が容易になる。
示すように、MDMは汎用的なアプローチであり、条件付けの異なるモードと異なる生成タスクを可能にします。
私たちのモデルは軽量なリソースでトレーニングされているが、テキスト間移動とアクション間移動のベンチマークでは最先端の結果が得られている。
https://guytevet.github.io/mdm-page/。
関連論文リスト
- Text-driven Human Motion Generation with Motion Masked Diffusion Model [23.637853270123045]
テキスト・ヒューマン・モーション・ジェネレーション(テキスト・ヒューマン・モーション・ジェネレーション)は、自然言語で条件付けられた人間の動作シーケンスを合成するタスクである。
現在の拡散モデルに基づくアプローチは、生成の多様性と多モード性において優れた性能を持つ。
拡散モデルのための新しい動き機構である運動マスク付き拡散モデルbftext(MMDM)を提案する。
論文 参考訳(メタデータ) (2024-09-29T12:26:24Z) - HUMOS: Human Motion Model Conditioned on Body Shape [54.20419874234214]
身体形状に基づく生成運動モデルを構築するための新しいアプローチを提案する。
非ペアデータを使ってこのモデルをトレーニングすることが可能であることを示す。
得られたモデルは、多種多様で、物理的に妥当で、動的に安定した人間の動きを生成する。
論文 参考訳(メタデータ) (2024-09-05T23:50:57Z) - Motion Flow Matching for Human Motion Synthesis and Editing [75.13665467944314]
本研究では,効率的なサンプリングと効率性を備えた人体運動生成のための新しい生成モデルであるemphMotion Flow Matchingを提案する。
提案手法は, 従来の拡散モデルにおいて, サンプリングの複雑さを1000ステップから10ステップに減らし, テキスト・ツー・モーション・ジェネレーション・ベンチマークやアクション・ツー・モーション・ジェネレーション・ベンチマークで同等の性能を実現する。
論文 参考訳(メタデータ) (2023-12-14T12:57:35Z) - Priority-Centric Human Motion Generation in Discrete Latent Space [59.401128190423535]
テキスト・ツー・モーション生成のための優先中心運動離散拡散モデル(M2DM)を提案する。
M2DMは、コード崩壊に対処するために、グローバルな自己注意機構と正規化用語を組み込んでいる。
また、各動きトークンの重要度から決定される革新的なノイズスケジュールを用いた動き離散拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-08-28T10:40:16Z) - Single Motion Diffusion [33.81898532874481]
SinMDMは、任意の位相を持つ単一運動列の内部モチーフを学習し、それらに忠実な任意の長さの運動を合成するモデルである。
SinMDMは、空間的および時間的相互関係、モーション展開、スタイル転送、群衆アニメーションなど、さまざまな状況に適用することができる。
以上の結果から,SinMDMは品質と時間空間効率の両方で既存手法よりも優れていた。
論文 参考訳(メタデータ) (2023-02-12T13:02:19Z) - Executing your Commands via Motion Diffusion in Latent Space [51.64652463205012]
本研究では,動作遅延に基づく拡散モデル(MLD)を提案し,条件付き入力に対応する鮮明な動き列を生成する。
我々のMDDは、広範囲な人体運動生成タスクにおいて、最先端の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2022-12-08T03:07:00Z) - MotionDiffuse: Text-Driven Human Motion Generation with Diffusion Model [35.32967411186489]
MotionDiffuseは拡散モデルに基づくテキスト駆動モーション生成フレームワークである。
複雑なデータ分散をモデル化し、鮮やかなモーションシーケンスを生成するのに優れています。
体の部分のきめ細かい指示に反応し、時間経過したテキストプロンプトで任意の長さのモーション合成を行う。
論文 参考訳(メタデータ) (2022-08-31T17:58:54Z) - Generating Smooth Pose Sequences for Diverse Human Motion Prediction [90.45823619796674]
本稿では,多様な動作予測と制御可能な動作予測のための統合された深部生成ネットワークを提案する。
標準ベンチマークデータセットであるHuman3.6MとHumanEva-Iの2つの実験は、我々のアプローチがサンプルの多様性と精度の両方において最先端のベースラインより優れていることを示した。
論文 参考訳(メタデータ) (2021-08-19T00:58:00Z) - Perpetual Motion: Generating Unbounded Human Motion [61.40259979876424]
我々は、長期的な予測、つまり、人間の動きの長いシーケンスを生成することに焦点を当てる。
本研究では,非決定論的,テキストに変化する,永続的な人間の動きを生成するモデルを提案する。
我々は、これをホワイトノイズガウス過程のKL分岐の重み付き関数を用いて訓練し、潜時シーケンスの時間依存性を許容する。
論文 参考訳(メタデータ) (2020-07-27T21:50:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。