論文の概要: DMS-GCN: Dynamic Mutiscale Spatiotemporal Graph Convolutional Networks
for Human Motion Prediction
- arxiv url: http://arxiv.org/abs/2112.10365v1
- Date: Mon, 20 Dec 2021 07:07:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-21 17:28:04.567804
- Title: DMS-GCN: Dynamic Mutiscale Spatiotemporal Graph Convolutional Networks
for Human Motion Prediction
- Title(参考訳): DMS-GCN:人間の動き予測のための動的マルチスケール時空間グラフ畳み込みネットワーク
- Authors: Zigeng Yan, Di-Hua Zhai, Yuanqing Xia
- Abstract要約: 動作予測のためのフィードフォワードディープニューラルネットワークを提案する。
モデル全体がすべてのアクションに適合し、エンコーダ・デコーダのフレームワークに従う。
提案手法は,Human3.6MとCMU Mocapのデータセット上でSOTA法より優れている。
- 参考スコア(独自算出の注目度): 8.142947808507365
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human motion prediction is an important and challenging task in many computer
vision application domains. Recent work concentrates on utilizing the timing
processing ability of recurrent neural networks (RNNs) to achieve smooth and
reliable results in short-term prediction. However, as evidenced by previous
work, RNNs suffer from errors accumulation, leading to unreliable results. In
this paper, we propose a simple feed-forward deep neural network for motion
prediction, which takes into account temporal smoothness and spatial
dependencies between human body joints. We design a Multi-scale Spatio-temporal
graph convolutional networks (GCNs) to implicitly establish the Spatio-temporal
dependence in the process of human movement, where different scales fused
dynamically during training. The entire model is suitable for all actions and
follows a framework of encoder-decoder. The encoder consists of temporal GCNs
to capture motion features between frames and semi-autonomous learned spatial
GCNs to extract spatial structure among joint trajectories. The decoder uses
temporal convolution networks (TCNs) to maintain its extensive ability.
Extensive experiments show that our approach outperforms SOTA methods on the
datasets of Human3.6M and CMU Mocap while only requiring much lesser
parameters. Code will be available at https://github.com/yzg9353/DMSGCN.
- Abstract(参考訳): 人間の動作予測は多くのコンピュータビジョンアプリケーション領域において重要かつ困難なタスクである。
近年,recurrent neural network (rnns) のタイミング処理能力を活用して,短時間の予測でスムーズで信頼性の高い結果を得る研究が進められている。
しかし、以前の研究で証明されたように、RNNはエラーの蓄積に悩まされ、信頼性の低い結果をもたらす。
本稿では,人体関節間の時間的滑らかさと空間的依存性を考慮した,動作予測のための簡易フィードフォワードディープニューラルネットワークを提案する。
本研究では,人間の運動過程における時空間依存を暗黙的に確立するために,多スケールの時空間グラフ畳み込みネットワーク(gcns)を設計する。
モデル全体がすべてのアクションに適合し、エンコーダ・デコーダのフレームワークに従う。
エンコーダは、フレーム間の動きの特徴をキャプチャする時間的gcnと、ジョイント軌道間の空間構造を抽出する半自律学習空間gcnとからなる。
デコーダは、時間畳み込みネットワーク(TCN)を使用して、その広範な能力を維持する。
大規模な実験の結果,Human3.6MとCMU MocapのデータセットではSOTA法よりも少ないパラメータしか必要としないことがわかった。
コードはhttps://github.com/yzg9353/DMSGCNで入手できる。
関連論文リスト
- Signal-SGN: A Spiking Graph Convolutional Network for Skeletal Action Recognition via Learning Temporal-Frequency Dynamics [2.9578022754506605]
骨格に基づく行動認識では、グラフ畳み込みネットワーク(GCN)はその複雑さと高エネルギー消費のために制限に直面している。
本稿では、骨格配列の時間次元をスパイキング時間ステップとして活用するSignal-SGN(Spiking Graph Convolutional Network)を提案する。
実験により,提案モデルが既存のSNN法を精度で上回るだけでなく,学習時の計算記憶コストも低減できることがわかった。
論文 参考訳(メタデータ) (2024-08-03T07:47:16Z) - Uncovering the Missing Pattern: Unified Framework Towards Trajectory
Imputation and Prediction [60.60223171143206]
軌道予測は、観測されたシーケンスから実体運動や人間の行動を理解する上で重要な作業である。
現在の方法では、観測されたシーケンスが完了したと仮定し、欠落した値の可能性を無視する。
本稿では,グラフに基づく条件変動リカレントニューラルネットワーク (GC-VRNN) の統一フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-28T14:27:27Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Scalable Spatiotemporal Graph Neural Networks [14.415967477487692]
グラフニューラルネットワーク(GNN)は、しばしば予測アーキテクチャのコアコンポーネントである。
ほとんどの時間前GNNでは、計算複雑性はグラフ内のリンクの回数のシーケンスの長さの2乗係数までスケールする。
本稿では,時間的・空間的両方のダイナミックスを効率的に符号化するスケーラブルなアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-09-14T09:47:38Z) - Hybrid SNN-ANN: Energy-Efficient Classification and Object Detection for
Event-Based Vision [64.71260357476602]
イベントベースの視覚センサは、画像フレームではなく、イベントストリームの局所的な画素単位の明るさ変化を符号化する。
イベントベースセンサーによる物体認識の最近の進歩は、ディープニューラルネットワークの変換によるものである。
本稿では、イベントベースのパターン認識とオブジェクト検出のためのディープニューラルネットワークのエンドツーエンドトレーニングのためのハイブリッドアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-06T23:45:58Z) - Multiscale Spatio-Temporal Graph Neural Networks for 3D Skeleton-Based
Motion Prediction [92.16318571149553]
本稿では,次世代の3次元骨格型人間のポーズを予測するため,マルチスケール・テンポラルグラフニューラルネットワーク(MST-GNN)を提案する。
MST-GNNは、短期および長期の動作予測において最先端の手法より優れている。
論文 参考訳(メタデータ) (2021-08-25T14:05:37Z) - Spatiotemporal convolutional network for time-series prediction and
causal inference [21.895413699349966]
時系列のマルチステップ予測を効率的に正確にレンダリングするために、ニューラルネットワークコンピューティングフレームワークi.N.N.を開発した。
このフレームワークは、人工知能(AI)や機械学習分野の実践的応用において大きな可能性を秘めている。
論文 参考訳(メタデータ) (2021-07-03T06:20:43Z) - Exploiting Spiking Dynamics with Spatial-temporal Feature Normalization
in Graph Learning [9.88508686848173]
内在的なダイナミクスを持つ生物学的スパイキングニューロンは、脳の強力な表現力と学習能力を持つ。
ユークリッド空間タスクを処理するためのスパイクニューラルネットワーク(SNN)の最近の進歩にもかかわらず、非ユークリッド空間データの処理においてSNNを活用することは依然として困難である。
本稿では,グラフ学習のためのSNNの直接学習を可能にする,一般的なスパイクに基づくモデリングフレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-30T11:20:16Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Dynamic Multiscale Graph Neural Networks for 3D Skeleton-Based Human
Motion Prediction [102.9787019197379]
本研究では3次元骨格に基づく人体動作を予測するために,新しい動的マルチスケールグラフニューラルネットワーク(DMGNN)を提案する。
モデルはアクションカテゴリに依存しないもので、エンコーダ/デコーダフレームワークに従う。
提案したDMGNNは,短期および長期の予測において最先端の手法より優れている。
論文 参考訳(メタデータ) (2020-03-17T02:49:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。