論文の概要: Recurrent Transformer Variational Autoencoders for Multi-Action Motion
Synthesis
- arxiv url: http://arxiv.org/abs/2206.06741v1
- Date: Tue, 14 Jun 2022 10:40:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-15 22:37:55.502592
- Title: Recurrent Transformer Variational Autoencoders for Multi-Action Motion
Synthesis
- Title(参考訳): マルチアクション動作合成のためのリカレント変圧器変分オートエンコーダ
- Authors: Rania Briq, Chuhang Zou, Leonid Pishchulin, Chris Broaddus, Juergen
Gall
- Abstract要約: 任意の長さの多動作人間の動作列を合成する問題を考察する。
既存のアプローチでは、単一のアクションシナリオでモーションシーケンス生成をマスターしているが、多アクションおよび任意の長さのシーケンスに一般化できない。
本稿では,リカレントトランスの豊かさと条件付き変分オートエンコーダの生成豊かさを活用する,新しい効率的な手法を提案する。
- 参考スコア(独自算出の注目度): 17.15415641710113
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider the problem of synthesizing multi-action human motion sequences
of arbitrary lengths. Existing approaches have mastered motion sequence
generation in single-action scenarios, but fail to generalize to multi-action
and arbitrary-length sequences. We fill this gap by proposing a novel efficient
approach that leverages the expressiveness of Recurrent Transformers and
generative richness of conditional Variational Autoencoders. The proposed
iterative approach is able to generate smooth and realistic human motion
sequences with an arbitrary number of actions and frames while doing so in
linear space and time. We train and evaluate the proposed approach on PROX
dataset which we augment with ground-truth action labels. Experimental
evaluation shows significant improvements in FID score and semantic consistency
metrics compared to the state-of-the-art.
- Abstract(参考訳): 任意の長さの多動作人間の動作列を合成する問題を考える。
既存のアプローチでは、シングルアクションシナリオでモーションシーケンス生成をマスターしているが、多アクションおよび任意の長さシーケンスに一般化できない。
このギャップを埋めるために、リカレントトランスフォーマーの表現性と条件付き変分オートエンコーダの生成豊かさを活用する、新しい効率的なアプローチを提案する。
提案する反復的アプローチは、線形空間と時間において、任意の数のアクションとフレームを持つ滑らかで現実的な人間の動き列を生成することができる。
我々は,接地行動ラベルで拡張するproxデータセットについて,提案手法を訓練し,評価する。
実験の結果,FIDスコアと意味的整合性指標は最先端の指標に比べて有意に改善した。
関連論文リスト
- Human Motion Synthesis_ A Diffusion Approach for Motion Stitching and In-Betweening [2.5165775267615205]
本研究では,現実的な人間の動きを生成するための変圧器を用いた拡散モデルを提案する。
提案手法は, 中間配列の生成において高い性能を示した。
本稿では,Frechet Inception Distance(FID),Diversity,Multimodalityなどの定量的指標を用いて,本手法の性能評価を行った。
論文 参考訳(メタデータ) (2024-09-10T18:02:32Z) - Dynamic Motion Synthesis: Masked Audio-Text Conditioned Spatio-Temporal Transformers [13.665279127648658]
本研究は,複数モーダルに条件付き全体動き列を同時に生成する新しい動き生成フレームワークを提案する。
空間的注意機構とトークン批評家を統合することで、生成した動きの一貫性と自然性を確保することができる。
論文 参考訳(メタデータ) (2024-09-03T04:19:27Z) - Text-guided 3D Human Motion Generation with Keyframe-based Parallel Skip Transformer [62.29951737214263]
既存のアルゴリズムは、コストがかかりエラーを起こしやすい全シーケンスを直接生成する。
本稿では,入力テキストに対応する人間の動作系列を生成するKeyMotionを提案する。
我々は,自動エンコーダを潜在空間に投影するために,Kullback-Leibler正規化付き変分符号器(VAE)を用いる。
逆拡散のために,デザインラテントとテキスト条件の相互参照を行う新しいパラレルスキップ変換器を提案する。
論文 参考訳(メタデータ) (2024-05-24T11:12:37Z) - DiffusionPhase: Motion Diffusion in Frequency Domain [69.811762407278]
そこで本研究では,テキスト記述から高品質な人間の動作系列を生成する学習手法を提案する。
既存の技術は、任意の長さの動き列を生成する際に、動きの多様性と滑らかな遷移に苦しむ。
動作空間をコンパクトで表現力のあるパラメータ化位相空間に変換するネットワークエンコーダを開発する。
論文 参考訳(メタデータ) (2023-12-07T04:39:22Z) - Ring Attention with Blockwise Transformers for Near-Infinite Context [88.61687950039662]
本稿では,複数のデバイスにまたがって長いシーケンスを分散するために,ブロックワイドな自己注意とフィードフォワードの計算を利用する,ブロックワイドトランスフォーマーを用いたリングアテンション(リングアテンション)を提案する。
提案手法では,先行メモリ効率の変換器で達成可能なものよりも,デバイス数倍のシーケンスのトレーニングと推論が可能となる。
論文 参考訳(メタデータ) (2023-10-03T08:44:50Z) - Synthesizing Long-Term Human Motions with Diffusion Models via Coherent
Sampling [74.62570964142063]
テキスト・トゥ・モーション・ジェネレーションは注目されているが、既存の手法のほとんどは短期的な動きに限られている。
本稿では,2つのコヒーレントサンプリング手法を用いた過去の拡散モデルを用いた新しい手法を提案する。
提案手法は,ユーザの指示した長文ストリームによって制御された,構成的かつコヒーレントな3次元人間の動作を生成することができる。
論文 参考訳(メタデータ) (2023-08-03T16:18:32Z) - Executing your Commands via Motion Diffusion in Latent Space [51.64652463205012]
本研究では,動作遅延に基づく拡散モデル(MLD)を提案し,条件付き入力に対応する鮮明な動き列を生成する。
我々のMDDは、広範囲な人体運動生成タスクにおいて、最先端の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2022-12-08T03:07:00Z) - Weakly-supervised Action Transition Learning for Stochastic Human Motion
Prediction [81.94175022575966]
動作駆動型人間の動作予測の課題について紹介する。
一連の動作ラベルと短い動作履歴から、複数の可算な将来の動作を予測することを目的としている。
論文 参考訳(メタデータ) (2022-05-31T08:38:07Z) - Implicit Neural Representations for Variable Length Human Motion
Generation [11.028791809955276]
変動型暗黙的ニューラル表現(INR)を用いた動作条件付き人体動作生成法を提案する。
InRの一部が時間的埋め込みを伴う任意の長さの配列全体に対して最適化されているため、提案手法は構成により可変長シーケンスを生成する。
本研究では,本手法が生成する可変長運動が,本手法が生成する固定長運動よりも現実性や多様性の点で優れていることを示す。
論文 参考訳(メタデータ) (2022-03-25T15:00:38Z) - Action-Conditioned 3D Human Motion Synthesis with Transformer VAE [44.523477804533364]
我々は、現実的で多様な人間の動き系列の行動条件生成の問題に取り組む。
動作シーケンスを完了または拡張する手法とは対照的に、このタスクは初期ポーズやシーケンスを必要としない。
生成的変分オートエンコーダを訓練することにより、人間の動きに対する行動認識の潜在表現を学ぶ。
論文 参考訳(メタデータ) (2021-04-12T17:40:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。