論文の概要: Learning Snippet-to-Motion Progression for Skeleton-based Human Motion
Prediction
- arxiv url: http://arxiv.org/abs/2307.14006v1
- Date: Wed, 26 Jul 2023 07:36:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-27 13:19:38.451983
- Title: Learning Snippet-to-Motion Progression for Skeleton-based Human Motion
Prediction
- Title(参考訳): スケルトンに基づく人間の運動予測のための学習スニペットから運動への進歩
- Authors: Xinshun Wang, Qiongjie Cui, Chen Chen, Shen Zhao, Mengyuan Liu
- Abstract要約: 人間の動きを予測するために既存のグラフ畳み込みネットワークは、主にワンステップのスキームを採用している。
人間の動きはトランジションパターンを持ち、各トランジションを表すスニペットに分割することができる。
動作予測をサブタスクに分割するスニペット・ツー・モーション・マルチステージ・フレームワークを提案する。
- 参考スコア(独自算出の注目度): 14.988322340164391
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing Graph Convolutional Networks to achieve human motion prediction
largely adopt a one-step scheme, which output the prediction straight from
history input, failing to exploit human motion patterns. We observe that human
motions have transitional patterns and can be split into snippets
representative of each transition. Each snippet can be reconstructed from its
starting and ending poses referred to as the transitional poses. We propose a
snippet-to-motion multi-stage framework that breaks motion prediction into
sub-tasks easier to accomplish. Each sub-task integrates three modules:
transitional pose prediction, snippet reconstruction, and snippet-to-motion
prediction. Specifically, we propose to first predict only the transitional
poses. Then we use them to reconstruct the corresponding snippets, obtaining a
close approximation to the true motion sequence. Finally we refine them to
produce the final prediction output. To implement the network, we propose a
novel unified graph modeling, which allows for direct and effective feature
propagation compared to existing approaches which rely on separate space-time
modeling. Extensive experiments on Human 3.6M, CMU Mocap and 3DPW datasets
verify the effectiveness of our method which achieves state-of-the-art
performance.
- Abstract(参考訳): 既存のグラフ畳み込みネットワークは、人間の動き予測を達成するために、歴史入力から直接予測を出力するワンステップスキームを採用しており、人間の動きパターンを活用できない。
人間の動きは遷移パターンを持ち、各遷移を表すスニペットに分割することができる。
各スニペットは、遷移ポーズと呼ばれる開始と終了のポーズから再構成することができる。
スニペットからモーションへのマルチステージフレームワークを提案し,動作予測をサブタスクに分解する。
各サブタスクは、トランザクショナルポーズ予測、スニペット再構築、スニペット・トゥ・モーション予測の3つのモジュールを統合する。
具体的には、まず遷移ポーズのみを予測することを提案する。
次に、それらを用いて対応するスニペットを再構成し、真の動き列に近似する。
最後に、最終的な予測出力を生成するためにそれらを洗練する。
このネットワークを実現するために,異なる時空間モデリングに依存する既存手法と比較して,直接的かつ効果的な特徴伝播を可能にする統一グラフモデリングを提案する。
ヒト3.6M, CMU Mocap, 3DPWデータセットの大規模実験により, 最先端性能を実現する手法の有効性が検証された。
関連論文リスト
- Past Movements-Guided Motion Representation Learning for Human Motion Prediction [0.0]
動作表現の強化を目的とした自己教師型学習フレームワークを提案する。
フレームワークは、まず、過去のシーケンスの自己再構成を通じてネットワークを事前訓練し、過去の動きに基づく将来のシーケンスのガイド付き再構築を行う。
提案手法は,Human3.6,3DPW,AMASSデータセットの平均予測誤差を8.8%削減する。
論文 参考訳(メタデータ) (2024-08-04T17:00:37Z) - Humanoid Locomotion as Next Token Prediction [84.21335675130021]
我々のモデルは感覚運動軌道の自己回帰予測によって訓練された因果変換器である。
われわれのモデルでは、フルサイズのヒューマノイドがサンフランシスコでゼロショットで歩けることが示されている。
われわれのモデルは、わずか27時間の歩行データで訓練された場合でも現実世界に移行でき、後方歩行のような訓練中に見えないコマンドを一般化することができる。
論文 参考訳(メタデータ) (2024-02-29T18:57:37Z) - DMMGAN: Diverse Multi Motion Prediction of 3D Human Joints using
Attention-Based Generative Adverserial Network [9.247294820004143]
本稿では,多種多様な人間の動きを予測するためのトランスフォーマーに基づく生成モデルを提案する。
本モデルでは、まず、股関節に対する身体の姿勢を予測し、次に、textitHip予測モジュールが、予測された各ポーズフレームに対する股関節運動の軌跡を予測する。
本研究では,ヒトの動作予測において,股関節運動を伴う多動将来の軌跡を予測しながら,最先端の動作予測に優れることを示す。
論文 参考訳(メタデータ) (2022-09-13T23:22:33Z) - Weakly-supervised Action Transition Learning for Stochastic Human Motion
Prediction [81.94175022575966]
動作駆動型人間の動作予測の課題について紹介する。
一連の動作ラベルと短い動作履歴から、複数の可算な将来の動作を予測することを目的としている。
論文 参考訳(メタデータ) (2022-05-31T08:38:07Z) - Investigating Pose Representations and Motion Contexts Modeling for 3D
Motion Prediction [63.62263239934777]
歴史的ポーズシーケンスから人間の動きを予測することは、機械が人間と知的な相互作用を成功させるために不可欠である。
本研究では,様々なポーズ表現に関する詳細な研究を行い,その動作予測課題に対する効果に着目した。
AHMR(Attentive Hierarchical Motion Recurrent Network)と呼ばれる新しいRNNアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-30T10:45:22Z) - Generating Smooth Pose Sequences for Diverse Human Motion Prediction [90.45823619796674]
本稿では,多様な動作予測と制御可能な動作予測のための統合された深部生成ネットワークを提案する。
標準ベンチマークデータセットであるHuman3.6MとHumanEva-Iの2つの実験は、我々のアプローチがサンプルの多様性と精度の両方において最先端のベースラインより優れていることを示した。
論文 参考訳(メタデータ) (2021-08-19T00:58:00Z) - Multi-level Motion Attention for Human Motion Prediction [132.29963836262394]
本研究は, 関節, 身体部分, フルポーズレベルなど, 異なる種類の注意力の使用について検討した。
我々は,Human3.6M,AMASS,3DPWを用いて,周期的および非周期的両方の行動に対するアプローチの利点を検証した。
論文 参考訳(メタデータ) (2021-06-17T08:08:11Z) - TrajeVAE -- Controllable Human Motion Generation from Trajectories [20.531400859656042]
3D人間のアニメーションのための汎用的なフレームワークを提供する新しいトランスフォーマーライクなアーキテクチャ、TrajeVAEを提案します。
TrajeVAEは、過去のポーズを精度で予測するトラジェクトリベースの参照手法や手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-01T09:12:48Z) - History Repeats Itself: Human Motion Prediction via Motion Attention [81.94175022575966]
注意に基づくフィードフォワードネットワークを導入し、人間の動きが自分自身を繰り返す傾向にあるという観察を明示的に活用する。
特に,現在動きのコンテキストと過去の動きのサブシーケンスの類似性を捉えるために,動きの注意を抽出することを提案する。
我々は,Human3.6M,AMASS,3DPWを用いて,周期的および非周期的両方の行動に対するアプローチの利点を実証した。
論文 参考訳(メタデータ) (2020-07-23T02:12:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。