論文の概要: Diversity-Promoting Human Motion Interpolation via Conditional
Variational Auto-Encoder
- arxiv url: http://arxiv.org/abs/2111.06762v1
- Date: Fri, 12 Nov 2021 15:16:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-15 14:22:45.204733
- Title: Diversity-Promoting Human Motion Interpolation via Conditional
Variational Auto-Encoder
- Title(参考訳): 条件付き変分オートエンコーダによる多様性促進ヒト運動補間
- Authors: Chunzhi Gu, Shuofeng Zhao, Chao Zhang
- Abstract要約: 本研究では,人体の動きを多様に生成する深層生成モデルを提案する。
本研究では,条件付き変分オートエンコーダ(CVAE)を用いて,与えられた開始動作と終了動作のペアで人間の動作条件を学習する。
- 参考スコア(独自算出の注目度): 6.977809893768435
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present a deep generative model based method to generate
diverse human motion interpolation results. We resort to the Conditional
Variational Auto-Encoder (CVAE) to learn human motion conditioned on a pair of
given start and end motions, by leveraging the Recurrent Neural Network (RNN)
structure for both the encoder and the decoder. Additionally, we introduce a
regularization loss to further promote sample diversity. Once trained, our
method is able to generate multiple plausible coherent motions by repetitively
sampling from the learned latent space. Experiments on the publicly available
dataset demonstrate the effectiveness of our method, in terms of sample
plausibility and diversity.
- Abstract(参考訳): 本稿では,多種多様な人間の動作補間結果を生成するための深層生成モデルを提案する。
本研究では,条件付き変分オートエンコーダ(CVAE)を用いて,一対の始点運動と終点運動に条件付けされた人間の動作を学習し,リカレントニューラルネットワーク(RNN)構造を用いてエンコーダと復号器の両方に活用する。
さらに,サンプル多様性をさらに促進するために正規化損失を導入する。
学習した潜在空間から繰り返しサンプリングすることで,複数の可塑性コヒーレント運動を生成することができる。
本手法の有効性を,サンプルの妥当性と多様性の観点から検証した。
関連論文リスト
- Multi-Resolution Generative Modeling of Human Motion from Limited Data [3.5229503563299915]
限られたトレーニングシーケンスから人間の動きを合成することを学ぶ生成モデルを提案する。
このモデルは、骨格の畳み込み層とマルチスケールアーキテクチャを統合することで、人間の動きパターンを順応的にキャプチャする。
論文 参考訳(メタデータ) (2024-11-25T15:36:29Z) - Complexity Matters: Rethinking the Latent Space for Generative Modeling [65.64763873078114]
生成的モデリングにおいて、多くの成功したアプローチは、例えば安定拡散のような低次元の潜在空間を利用する。
本研究では, モデル複雑性の観点から潜在空間を再考することにより, 未探索の話題に光を当てることを目的としている。
論文 参考訳(メタデータ) (2023-07-17T07:12:29Z) - Modiff: Action-Conditioned 3D Motion Generation with Denoising Diffusion
Probabilistic Models [58.357180353368896]
本稿では,現実的で多様な3D骨格に基づく運動生成問題に対処するために,拡散確率モデル(DDPM)の利点を生かした条件付きパラダイムを提案する。
我々はDDPMを用いてカテゴリ的動作で条件付けられた動作列の可変数を合成する先駆的な試みである。
論文 参考訳(メタデータ) (2023-01-10T13:15:42Z) - Executing your Commands via Motion Diffusion in Latent Space [51.64652463205012]
本研究では,動作遅延に基づく拡散モデル(MLD)を提案し,条件付き入力に対応する鮮明な動き列を生成する。
我々のMDDは、広範囲な人体運動生成タスクにおいて、最先端の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2022-12-08T03:07:00Z) - String-based Molecule Generation via Multi-decoder VAE [56.465033997245776]
可変オートエンコーダ(VAE)による文字列型分子生成の問題点について検討する。
本稿では,そのタスクに対するVAEの性能を改善するための,シンプルで効果的なアイデアを提案する。
実験では,提案するVAEモデルを用いて,領域外分布からサンプルを生成する。
論文 参考訳(メタデータ) (2022-08-23T03:56:30Z) - MoDi: Unconditional Motion Synthesis from Diverse Data [51.676055380546494]
多様な動きを合成する無条件生成モデルであるMoDiを提案する。
我々のモデルは、多様な、構造化されていない、ラベルなしのモーションデータセットから完全に教師なしの設定で訓練されている。
データセットに構造が欠けているにもかかわらず、潜在空間は意味的にクラスタ化可能であることを示す。
論文 参考訳(メタデータ) (2022-06-16T09:06:25Z) - Recurrent Transformer Variational Autoencoders for Multi-Action Motion
Synthesis [17.15415641710113]
任意の長さの多動作人間の動作列を合成する問題を考察する。
既存のアプローチでは、単一のアクションシナリオでモーションシーケンス生成をマスターしているが、多アクションおよび任意の長さのシーケンスに一般化できない。
本稿では,リカレントトランスの豊かさと条件付き変分オートエンコーダの生成豊かさを活用する,新しい効率的な手法を提案する。
論文 参考訳(メタデータ) (2022-06-14T10:40:16Z) - Implicit Neural Representations for Variable Length Human Motion
Generation [11.028791809955276]
変動型暗黙的ニューラル表現(INR)を用いた動作条件付き人体動作生成法を提案する。
InRの一部が時間的埋め込みを伴う任意の長さの配列全体に対して最適化されているため、提案手法は構成により可変長シーケンスを生成する。
本研究では,本手法が生成する可変長運動が,本手法が生成する固定長運動よりも現実性や多様性の点で優れていることを示す。
論文 参考訳(メタデータ) (2022-03-25T15:00:38Z) - Consistency and Diversity induced Human Motion Segmentation [231.36289425663702]
本稿では,CDMS(Consistency and Diversity induced Human Motion)アルゴリズムを提案する。
我々のモデルは、ソースとターゲットデータを異なる多層特徴空間に分解する。
ソースとターゲットデータ間の領域ギャップを低減するために、マルチミューチュアル学習戦略を実行する。
論文 参考訳(メタデータ) (2022-02-10T06:23:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。