論文の概要: MSR-GCN: Multi-Scale Residual Graph Convolution Networks for Human
Motion Prediction
- arxiv url: http://arxiv.org/abs/2108.07152v2
- Date: Tue, 17 Aug 2021 06:19:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-18 13:30:37.692908
- Title: MSR-GCN: Multi-Scale Residual Graph Convolution Networks for Human
Motion Prediction
- Title(参考訳): MSR-GCN:人間の動き予測のためのマルチスケール残差グラフ畳み込みネットワーク
- Authors: Lingwei Dang, Yongwei Nie, Chengjiang Long, Qing Zhang, Guiqing Li
- Abstract要約: 本稿では,人間のポーズ予測のためのマルチスケール残差グラフ畳み込みネットワーク(MSR-GCN)を提案する。
提案手法は、Human3.6MデータセットとCMU Mocapデータセットの2つの標準ベンチマークデータセットで評価される。
- 参考スコア(独自算出の注目度): 34.565986275769745
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human motion prediction is a challenging task due to the stochasticity and
aperiodicity of future poses. Recently, graph convolutional network has been
proven to be very effective to learn dynamic relations among pose joints, which
is helpful for pose prediction. On the other hand, one can abstract a human
pose recursively to obtain a set of poses at multiple scales. With the increase
of the abstraction level, the motion of the pose becomes more stable, which
benefits pose prediction too. In this paper, we propose a novel Multi-Scale
Residual Graph Convolution Network (MSR-GCN) for human pose prediction task in
the manner of end-to-end. The GCNs are used to extract features from fine to
coarse scale and then from coarse to fine scale. The extracted features at each
scale are then combined and decoded to obtain the residuals between the input
and target poses. Intermediate supervisions are imposed on all the predicted
poses, which enforces the network to learn more representative features. Our
proposed approach is evaluated on two standard benchmark datasets, i.e., the
Human3.6M dataset and the CMU Mocap dataset. Experimental results demonstrate
that our method outperforms the state-of-the-art approaches. Code and
pre-trained models are available at https://github.com/Droliven/MSRGCN.
- Abstract(参考訳): 人間の動き予測は、将来のポーズの確率性と周期性のために難しい課題である。
近年,グラフ畳み込みネットワークはポーズ関節間の動的関係を学習するのに非常に有効であることが証明されている。
一方、人間のポーズを再帰的に抽象化し、複数のスケールで一連のポーズを得ることができる。
抽象レベルが向上するにつれて、ポーズの動きがより安定し、それによって予測も得られる。
本稿では,人間のポーズ予測タスクをエンドツーエンドで行うためのマルチスケール残留グラフ畳み込みネットワーク(MSR-GCN)を提案する。
GCNは細粒度から粗粒度、粗粒度から粗粒度までの特徴を抽出するために用いられる。
各スケールで抽出された特徴を結合してデコードし、入力とターゲットポーズの間の残差を取得する。
中間的な監視は予測されたすべてのポーズに課され、ネットワークはより代表的な機能を学ぶように強制される。
提案手法は、Human3.6MデータセットとCMU Mocapデータセットの2つの標準ベンチマークデータセットで評価される。
実験の結果,本手法は最先端手法よりも優れていた。
コードと事前訓練されたモデルはhttps://github.com/Droliven/MSRGCN.comで入手できる。
関連論文リスト
- Context-based Interpretable Spatio-Temporal Graph Convolutional Network
for Human Motion Forecasting [0.0]
本稿では,効率的な3次元ポーズ予測モデルとしてコンテキスト解釈型時空間グラフネットワーク(IST-GCN)を提案する。
提案アーキテクチャでは,ポーズシーケンスから意味のある情報を抽出し,入力モデルにアグリゲーションとアクセラレーションを集約し,最終的に出力変位を予測する。
論文 参考訳(メタデータ) (2024-02-21T17:51:30Z) - Multiscale Residual Learning of Graph Convolutional Sequence Chunks for
Human Motion Prediction [23.212848643552395]
時間的および空間的依存関係の学習による人間の動作予測のための新しい手法を提案する。
提案手法は,動作予測のためのシーケンス情報を効果的にモデル化し,他の手法よりも優れ,新しい最先端の手法を設定できる。
論文 参考訳(メタデータ) (2023-08-31T15:23:33Z) - Multi-Graph Convolution Network for Pose Forecasting [0.8057006406834467]
本稿では,3次元ポーズ予測のための多グラフ畳み込みネットワーク(MGCN)を提案する。
MGCNは、ポーズシーケンスのための拡張グラフを導入することで、空間情報と時間情報を同時にキャプチャする。
評価では,MGCNはポーズ予測において最先端の予測よりも優れていた。
論文 参考訳(メタデータ) (2023-04-11T03:59:43Z) - Back to MLP: A Simple Baseline for Human Motion Prediction [59.18776744541904]
本稿では、歴史的に観察されたシーケンスから将来の身体のポーズを予測することによる、人間の動作予測の課題に取り組む。
これらの手法の性能は、0.14Mパラメータしか持たない軽量で純粋にアーキテクチャアーキテクチャによって超えることができることを示す。
Human3.6M, AMASS, 3DPWデータセットの徹底的な評価は, siMLPeをダブした我々の手法が, 他のアプローチよりも一貫して優れていることを示している。
論文 参考訳(メタデータ) (2022-07-04T16:35:58Z) - Investigating Pose Representations and Motion Contexts Modeling for 3D
Motion Prediction [63.62263239934777]
歴史的ポーズシーケンスから人間の動きを予測することは、機械が人間と知的な相互作用を成功させるために不可欠である。
本研究では,様々なポーズ表現に関する詳細な研究を行い,その動作予測課題に対する効果に着目した。
AHMR(Attentive Hierarchical Motion Recurrent Network)と呼ばれる新しいRNNアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-30T10:45:22Z) - Graph-Based 3D Multi-Person Pose Estimation Using Multi-View Images [79.70127290464514]
我々は,タスクを2つの段階,すなわち人物のローカライゼーションとポーズ推定に分解する。
また,効率的なメッセージパッシングのための3つのタスク固有グラフニューラルネットワークを提案する。
提案手法は,CMU Panoptic と Shelf のデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2021-09-13T11:44:07Z) - Generating Smooth Pose Sequences for Diverse Human Motion Prediction [90.45823619796674]
本稿では,多様な動作予測と制御可能な動作予測のための統合された深部生成ネットワークを提案する。
標準ベンチマークデータセットであるHuman3.6MとHumanEva-Iの2つの実験は、我々のアプローチがサンプルの多様性と精度の両方において最先端のベースラインより優れていることを示した。
論文 参考訳(メタデータ) (2021-08-19T00:58:00Z) - Development of Human Motion Prediction Strategy using Inception Residual
Block [1.0705399532413613]
Inception Residual Block (IRB) を提案する。
我々の主な貢献は、事前に観測されたポーズと次の予測されたポーズの間に連続性を持つように、入力と開始ブロックの出力の間の残差接続を提案することである。
提案したアーキテクチャでは、人間のポーズに関する事前知識をよりよく学習し、論文で詳述したよりはるかに高い予測精度を達成する。
論文 参考訳(メタデータ) (2021-08-09T12:49:48Z) - Learning Dynamics via Graph Neural Networks for Human Pose Estimation
and Tracking [98.91894395941766]
ポーズ検出とは無関係なポーズダイナミクスを学習する新しいオンライン手法を提案する。
具体的には、空間的・時間的情報と視覚的情報の両方を明示的に考慮したグラフニューラルネットワーク(GNN)を通して、このダイナミクスの予測を導出する。
PoseTrack 2017とPoseTrack 2018データセットの実験では、提案手法が人間のポーズ推定とトラッキングタスクの両方において、技術の現状よりも優れた結果が得られることを示した。
論文 参考訳(メタデータ) (2021-06-07T16:36:50Z) - 3D Human Pose Regression using Graph Convolutional Network [68.8204255655161]
本稿では,2次元のポーズから3次元のポーズ回帰を行うために,PoseGraphNetというグラフ畳み込みネットワークを提案する。
我々のモデルの性能は最先端に近いが、パラメータははるかに少ない。
論文 参考訳(メタデータ) (2021-05-21T14:41:31Z) - GPRAR: Graph Convolutional Network based Pose Reconstruction and Action
Recognition for Human Trajectory Prediction [1.2891210250935146]
既存の予測モデルは、観察がしばしば騒がしい現実世界の設定でエラーを起こしやすい。
GPRARは、人間の軌道予測のためのグラフ畳み込みネットワークベースのポーズ再構築とアクション認識です。
JAADおよびTITANデータセットのノイズ観測により,GPRARは予測精度を最大22%,50%向上させることを示した。
論文 参考訳(メタデータ) (2021-03-25T20:12:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。