論文の概要: Implicit Neural Representations for Variable Length Human Motion
Generation
- arxiv url: http://arxiv.org/abs/2203.13694v1
- Date: Fri, 25 Mar 2022 15:00:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-28 16:14:16.940355
- Title: Implicit Neural Representations for Variable Length Human Motion
Generation
- Title(参考訳): 可変長人間の動作生成のための入射神経表現
- Authors: Pablo Cervantes and Yusuke Sekikawa and Ikuro Sato and Koichi Shinoda
- Abstract要約: 変動型暗黙的ニューラル表現(INR)を用いた動作条件付き人体動作生成法を提案する。
InRの一部が時間的埋め込みを伴う任意の長さの配列全体に対して最適化されているため、提案手法は構成により可変長シーケンスを生成する。
本研究では,本手法が生成する可変長運動が,本手法が生成する固定長運動よりも現実性や多様性の点で優れていることを示す。
- 参考スコア(独自算出の注目度): 11.028791809955276
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose an action-conditional human motion generation method using
variational implicit neural representations (INR). The variational formalism
enables action-conditional distributions of INRs, from which one can easily
sample representations to generate novel human motion sequences. Our method
offers variable-length sequence generation by construction because a part of
INR is optimized for a whole sequence of arbitrary length with temporal
embeddings. In contrast, previous works reported difficulties with modeling
variable-length sequences. We confirm that our method with a Transformer
decoder outperforms all relevant methods on HumanAct12, NTU-RGBD, and UESTC
datasets in terms of realism and diversity of generated motions. Surprisingly,
even our method with an MLP decoder consistently outperforms the
state-of-the-art Transformer-based auto-encoder. In particular, we show that
variable-length motions generated by our method are better than fixed-length
motions generated by the state-of-the-art method in terms of realism and
diversity.
- Abstract(参考訳): 変動型暗黙的ニューラル表現(INR)を用いた動作条件付き人体動作生成法を提案する。
変分形式は、inrsのアクション条件分布を可能にし、そこから簡単に表現をサンプリングして新しい人間の動き列を生成することができる。
InRの一部が時間的埋め込みを伴う任意の長さの配列全体に対して最適化されているため、提案手法は構成により可変長シーケンスを生成する。
対照的に、以前の研究では可変長列のモデル化が困難であった。
我々は、トランスフォーマーデコーダを用いた手法が、生成した動きのリアリズムと多様性の観点から、HumanAct12, NTU-RGBD, UESTCデータセット上のすべての関連手法より優れていることを確認した。
驚いたことに、MPPデコーダを用いた我々の方法でさえ、最先端のトランスフォーマーベースのオートエンコーダよりも一貫して優れている。
特に,本手法が生成する可変長運動は,本手法が生成する固定長運動よりも現実性と多様性の点で優れていることを示す。
関連論文リスト
- Human Motion Synthesis_ A Diffusion Approach for Motion Stitching and In-Betweening [2.5165775267615205]
本研究では,現実的な人間の動きを生成するための変圧器を用いた拡散モデルを提案する。
提案手法は, 中間配列の生成において高い性能を示した。
本稿では,Frechet Inception Distance(FID),Diversity,Multimodalityなどの定量的指標を用いて,本手法の性能評価を行った。
論文 参考訳(メタデータ) (2024-09-10T18:02:32Z) - Motion Flow Matching for Human Motion Synthesis and Editing [75.13665467944314]
本研究では,効率的なサンプリングと効率性を備えた人体運動生成のための新しい生成モデルであるemphMotion Flow Matchingを提案する。
提案手法は, 従来の拡散モデルにおいて, サンプリングの複雑さを1000ステップから10ステップに減らし, テキスト・ツー・モーション・ジェネレーション・ベンチマークやアクション・ツー・モーション・ジェネレーション・ベンチマークで同等の性能を実現する。
論文 参考訳(メタデータ) (2023-12-14T12:57:35Z) - DiffusionPhase: Motion Diffusion in Frequency Domain [69.811762407278]
そこで本研究では,テキスト記述から高品質な人間の動作系列を生成する学習手法を提案する。
既存の技術は、任意の長さの動き列を生成する際に、動きの多様性と滑らかな遷移に苦しむ。
動作空間をコンパクトで表現力のあるパラメータ化位相空間に変換するネットワークエンコーダを開発する。
論文 参考訳(メタデータ) (2023-12-07T04:39:22Z) - SeqDiffuSeq: Text Diffusion with Encoder-Decoder Transformers [50.90457644954857]
本研究では,拡散モデルを用いてシーケンス・ツー・シーケンスのテキスト生成を行う。
シーケンス・ツー・シーケンス生成のためのテキスト拡散モデルであるSeqDiffuSeqを提案する。
実験結果は、テキストの品質と推論時間の観点から、シーケンス・ツー・シーケンス生成の優れた性能を示す。
論文 参考訳(メタデータ) (2022-12-20T15:16:24Z) - Executing your Commands via Motion Diffusion in Latent Space [51.64652463205012]
本研究では,動作遅延に基づく拡散モデル(MLD)を提案し,条件付き入力に対応する鮮明な動き列を生成する。
我々のMDDは、広範囲な人体運動生成タスクにおいて、最先端の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2022-12-08T03:07:00Z) - Recurrence Boosts Diversity! Revisiting Recurrent Latent Variable in
Transformer-Based Variational AutoEncoder for Diverse Text Generation [85.5379146125199]
変分自動エンコーダ(VAE)はテキスト生成において広く採用されている。
本稿ではトランスフォーマーをベースとしたリカレントVAE構造であるTRACEを提案する。
論文 参考訳(メタデータ) (2022-10-22T10:25:35Z) - Recurrent Transformer Variational Autoencoders for Multi-Action Motion
Synthesis [17.15415641710113]
任意の長さの多動作人間の動作列を合成する問題を考察する。
既存のアプローチでは、単一のアクションシナリオでモーションシーケンス生成をマスターしているが、多アクションおよび任意の長さのシーケンスに一般化できない。
本稿では,リカレントトランスの豊かさと条件付き変分オートエンコーダの生成豊かさを活用する,新しい効率的な手法を提案する。
論文 参考訳(メタデータ) (2022-06-14T10:40:16Z) - Diversity-Promoting Human Motion Interpolation via Conditional
Variational Auto-Encoder [6.977809893768435]
本研究では,人体の動きを多様に生成する深層生成モデルを提案する。
本研究では,条件付き変分オートエンコーダ(CVAE)を用いて,与えられた開始動作と終了動作のペアで人間の動作条件を学習する。
論文 参考訳(メタデータ) (2021-11-12T15:16:48Z) - Action-Conditioned 3D Human Motion Synthesis with Transformer VAE [44.523477804533364]
我々は、現実的で多様な人間の動き系列の行動条件生成の問題に取り組む。
動作シーケンスを完了または拡張する手法とは対照的に、このタスクは初期ポーズやシーケンスを必要としない。
生成的変分オートエンコーダを訓練することにより、人間の動きに対する行動認識の潜在表現を学ぶ。
論文 参考訳(メタデータ) (2021-04-12T17:40:27Z) - Hierarchical Style-based Networks for Motion Synthesis [150.226137503563]
本研究では,特定の目標地点を達成するために,長距離・多種多様・多様な行動を生成する自己指導手法を提案する。
提案手法は,長距離生成タスクを階層的に分解することで人間の動作をモデル化する。
大規模な骨格データから, 提案手法は長距離, 多様な, もっともらしい動きを合成できることを示す。
論文 参考訳(メタデータ) (2020-08-24T02:11:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。