論文の概要: Multiscale Residual Learning of Graph Convolutional Sequence Chunks for
Human Motion Prediction
- arxiv url: http://arxiv.org/abs/2308.16801v1
- Date: Thu, 31 Aug 2023 15:23:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-01 13:53:00.551675
- Title: Multiscale Residual Learning of Graph Convolutional Sequence Chunks for
Human Motion Prediction
- Title(参考訳): 人の動き予測のためのグラフ畳み込みシーケンスチャンクのマルチスケール残差学習
- Authors: Mohsen Zand, Ali Etemad, Michael Greenspan
- Abstract要約: 時間的および空間的依存関係の学習による人間の動作予測のための新しい手法を提案する。
提案手法は,動作予測のためのシーケンス情報を効果的にモデル化し,他の手法よりも優れ,新しい最先端の手法を設定できる。
- 参考スコア(独自算出の注目度): 23.212848643552395
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A new method is proposed for human motion prediction by learning temporal and
spatial dependencies. Recently, multiscale graphs have been developed to model
the human body at higher abstraction levels, resulting in more stable motion
prediction. Current methods however predetermine scale levels and combine
spatially proximal joints to generate coarser scales based on human priors,
even though movement patterns in different motion sequences vary and do not
fully comply with a fixed graph of spatially connected joints. Another problem
with graph convolutional methods is mode collapse, in which predicted poses
converge around a mean pose with no discernible movements, particularly in
long-term predictions. To tackle these issues, we propose ResChunk, an
end-to-end network which explores dynamically correlated body components based
on the pairwise relationships between all joints in individual sequences.
ResChunk is trained to learn the residuals between target sequence chunks in an
autoregressive manner to enforce the temporal connectivities between
consecutive chunks. It is hence a sequence-to-sequence prediction network which
considers dynamic spatio-temporal features of sequences at multiple levels. Our
experiments on two challenging benchmark datasets, CMU Mocap and Human3.6M,
demonstrate that our proposed method is able to effectively model the sequence
information for motion prediction and outperform other techniques to set a new
state-of-the-art. Our code is available at
https://github.com/MohsenZand/ResChunk.
- Abstract(参考訳): 時間的および空間的依存性を学習し,人間の運動予測のための新しい手法を提案する。
近年,高い抽象度で人体をモデル化する多スケールグラフが開発され,より安定した運動予測が実現されている。
しかし、現在の手法では、異なる動きのパターンが異なり、空間的に接続されたジョイントの固定グラフに完全に準拠していないにもかかわらず、所定のスケールレベルと空間的近位ジョイントを組み合わせて、人間の前兆に基づいて粗いスケールを生成する。
グラフ畳み込み手法のもう一つの問題は、予測されたポーズが、特に長期予測において識別可能な動きのない平均ポーズの周りに収束するモード崩壊である。
これらの課題に対処するために、各配列のすべての関節間の対関係に基づいて動的に相関する身体成分を探索するエンドツーエンドネットワークResChunkを提案する。
reschunkは、ターゲットシーケンスチャンク間の残差を自己回帰的に学習し、連続したチャンク間の時間的接続性を強化するように訓練される。
したがって、複数のレベルのシーケンスの動的時空間的特徴を考慮したシーケンス対シーケンス予測ネットワークである。
cmu mocap と human3.6m の2つの難解なベンチマークデータセットにおける実験により,提案手法が動作予測のためのシーケンス情報を効果的にモデル化し,新たな最先端設定のための他の手法よりも優れることを示した。
私たちのコードはhttps://github.com/MohsenZand/ResChunk.comで利用可能です。
関連論文リスト
- Multi-Graph Convolution Network for Pose Forecasting [0.8057006406834467]
本稿では,3次元ポーズ予測のための多グラフ畳み込みネットワーク(MGCN)を提案する。
MGCNは、ポーズシーケンスのための拡張グラフを導入することで、空間情報と時間情報を同時にキャプチャする。
評価では,MGCNはポーズ予測において最先端の予測よりも優れていた。
論文 参考訳(メタデータ) (2023-04-11T03:59:43Z) - Diverse Human Motion Prediction Guided by Multi-Level Spatial-Temporal
Anchors [21.915057426589744]
本稿では,サンプルの精度と多様性を促進するために,ランダムなサンプルコードと,決定論的に学習可能なコンポーネントであるアンカーを分離する,単純かつ効果的なアプローチを提案する。
原則として、時空間アンカーベースサンプリング(STARS)は、異なる動き予測器に適用できる。
論文 参考訳(メタデータ) (2023-02-09T18:58:07Z) - Learning the Evolutionary and Multi-scale Graph Structure for
Multivariate Time Series Forecasting [50.901984244738806]
時系列の進化的・マルチスケール相互作用をモデル化する方法を示す。
特に、まず、拡張畳み込みと協調して、スケール固有の相関を捉える階層グラフ構造を提供する。
最終的な予測を得るために上記のコンポーネントを統合するために、統合ニューラルネットワークが提供される。
論文 参考訳(メタデータ) (2022-06-28T08:11:12Z) - Motion Prediction via Joint Dependency Modeling in Phase Space [40.54430409142653]
我々は、運動解剖学の明示的な事前知識を活用するために、新しい畳み込みニューラルモデルを導入する。
次に,個々の関節機能間の暗黙的関係を学習するグローバル最適化モジュールを提案する。
本手法は,大規模な3次元人体動作ベンチマークデータセットを用いて評価する。
論文 参考訳(メタデータ) (2022-01-07T08:30:01Z) - Investigating Pose Representations and Motion Contexts Modeling for 3D
Motion Prediction [63.62263239934777]
歴史的ポーズシーケンスから人間の動きを予測することは、機械が人間と知的な相互作用を成功させるために不可欠である。
本研究では,様々なポーズ表現に関する詳細な研究を行い,その動作予測課題に対する効果に着目した。
AHMR(Attentive Hierarchical Motion Recurrent Network)と呼ばれる新しいRNNアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-30T10:45:22Z) - Generating Smooth Pose Sequences for Diverse Human Motion Prediction [90.45823619796674]
本稿では,多様な動作予測と制御可能な動作予測のための統合された深部生成ネットワークを提案する。
標準ベンチマークデータセットであるHuman3.6MとHumanEva-Iの2つの実験は、我々のアプローチがサンプルの多様性と精度の両方において最先端のベースラインより優れていることを示した。
論文 参考訳(メタデータ) (2021-08-19T00:58:00Z) - MSR-GCN: Multi-Scale Residual Graph Convolution Networks for Human
Motion Prediction [34.565986275769745]
本稿では,人間のポーズ予測のためのマルチスケール残差グラフ畳み込みネットワーク(MSR-GCN)を提案する。
提案手法は、Human3.6MデータセットとCMU Mocapデータセットの2つの標準ベンチマークデータセットで評価される。
論文 参考訳(メタデータ) (2021-08-16T15:26:23Z) - Multi-level Motion Attention for Human Motion Prediction [132.29963836262394]
本研究は, 関節, 身体部分, フルポーズレベルなど, 異なる種類の注意力の使用について検討した。
我々は,Human3.6M,AMASS,3DPWを用いて,周期的および非周期的両方の行動に対するアプローチの利点を検証した。
論文 参考訳(メタデータ) (2021-06-17T08:08:11Z) - Learning Dynamics via Graph Neural Networks for Human Pose Estimation
and Tracking [98.91894395941766]
ポーズ検出とは無関係なポーズダイナミクスを学習する新しいオンライン手法を提案する。
具体的には、空間的・時間的情報と視覚的情報の両方を明示的に考慮したグラフニューラルネットワーク(GNN)を通して、このダイナミクスの予測を導出する。
PoseTrack 2017とPoseTrack 2018データセットの実験では、提案手法が人間のポーズ推定とトラッキングタスクの両方において、技術の現状よりも優れた結果が得られることを示した。
論文 参考訳(メタデータ) (2021-06-07T16:36:50Z) - Learning Multiscale Correlations for Human Motion Prediction [10.335804615372629]
本研究では、人体成分間の相関を捕捉する新しいマルチスケールグラフ畳み込みネットワーク(MGCN)を提案する。
ヒューマンモーション予測のための2つの標準ベンチマークデータセットに対するアプローチを評価した。
論文 参考訳(メタデータ) (2021-03-19T07:58:16Z) - Convolutional Tensor-Train LSTM for Spatio-temporal Learning [116.24172387469994]
本稿では,ビデオシーケンスの長期相関を効率的に学習できる高次LSTMモデルを提案する。
これは、時間をかけて畳み込み特徴を組み合わせることによって予測を行う、新しいテンソルトレインモジュールによって達成される。
この結果は,幅広いアプリケーションやデータセットにおいて,最先端のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-02-21T05:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。