論文の概要: Spatial-Temporal Gating-Adjacency GCN for Human Motion Prediction
- arxiv url: http://arxiv.org/abs/2203.01474v1
- Date: Thu, 3 Mar 2022 01:20:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-04 15:16:10.812323
- Title: Spatial-Temporal Gating-Adjacency GCN for Human Motion Prediction
- Title(参考訳): ヒト運動予測のための時空間ゲーティング隣接GCN
- Authors: Chongyang Zhong, Lei Hu, Zihao Zhang, Yongjing Ye, Shihong Xia
- Abstract要約: 本稿では,多様な行動型に対する複雑な時空間依存性を学習するために,時空間ゲーティング・アジャシエイトGCNを提案する。
GAGCNは短期および長期の予測において最先端の性能を達成する。
- 参考スコア(独自算出の注目度): 14.42671575251554
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Predicting future motion based on historical motion sequence is a fundamental
problem in computer vision, and it has wide applications in autonomous driving
and robotics. Some recent works have shown that Graph Convolutional
Networks(GCN) are instrumental in modeling the relationship between different
joints. However, considering the variants and diverse action types in human
motion data, the cross-dependency of the spatial-temporal relationships will be
difficult to depict due to the decoupled modeling strategy, which may also
exacerbate the problem of insufficient generalization. Therefore, we propose
the Spatial-Temporal Gating-Adjacency GCN(GAGCN) to learn the complex
spatial-temporal dependencies over diverse action types. Specifically, we adopt
gating networks to enhance the generalization of GCN via the trainable adaptive
adjacency matrix obtained by blending the candidate spatial-temporal adjacency
matrices. Moreover, GAGCN addresses the cross-dependency of space and time by
balancing the weights of spatial-temporal modeling and fusing the decoupled
spatial-temporal features. Extensive experiments on Human 3.6M, AMASS, and 3DPW
demonstrate that GAGCN achieves state-of-the-art performance in both short-term
and long-term predictions. Our code will be released in the future.
- Abstract(参考訳): ヒストリカルモーションシーケンスに基づく将来の動きの予測はコンピュータビジョンの基本的な問題であり、自律運転やロボット工学に広く応用されている。
近年の研究では、グラフ畳み込みネットワーク(gcn)が異なるジョイント間の関係をモデル化するのに役立つことが示されている。
しかし,人間の運動データにおける変種や多様な行動型を考えると,空間的・時間的関係の相互依存性は,非結合的なモデリング戦略によって描写が困難となる。
そこで本稿では,多様な行動型に対する複雑な時空間依存性を学習するために,時空間ゲーティング・アジャクエンスGCN(GAGCN)を提案する。
具体的には,空間的隣接行列を混合した適応的隣接行列を用いてGCNの一般化を促進するため,ゲーティングネットワークを採用する。
さらに、GAGCNは空間時間モデリングの重みのバランスをとることで空間時間と時間との相互依存性に対処する。
ヒト3.6M, AMASS, 3DPWの広範囲な実験により, GAGCNは短期および長期の予測において最先端の性能を発揮することが示された。
私たちのコードは将来リリースされるでしょう。
関連論文リスト
- Multi-Graph Convolution Network for Pose Forecasting [0.8057006406834467]
本稿では,3次元ポーズ予測のための多グラフ畳み込みネットワーク(MGCN)を提案する。
MGCNは、ポーズシーケンスのための拡張グラフを導入することで、空間情報と時間情報を同時にキャプチャする。
評価では,MGCNはポーズ予測において最先端の予測よりも優れていた。
論文 参考訳(メタデータ) (2023-04-11T03:59:43Z) - Multivariate Time Series Forecasting with Dynamic Graph Neural ODEs [65.18780403244178]
動的グラフニューラル正規微分方程式(MTGODE)を用いた多変量時系列予測連続モデルを提案する。
具体的には、まず、時間進化するノードの特徴と未知のグラフ構造を持つ動的グラフに多変量時系列を抽象化する。
そして、欠落したグラフトポロジを補完し、空間的および時間的メッセージパッシングを統一するために、ニューラルODEを設計、解決する。
論文 参考訳(メタデータ) (2022-02-17T02:17:31Z) - Spatio-Temporal Joint Graph Convolutional Networks for Traffic
Forecasting [75.10017445699532]
近年、時間グラフモデリング問題として交通予測の定式化に焦点が移っている。
本稿では,道路網における交通予測の精度向上のための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-11-25T08:45:14Z) - Space-Time-Separable Graph Convolutional Network for Pose Forecasting [3.6417475195085602]
STS-GCNは、グラフ畳み込みネットワーク(GCN)でのみ人間のポーズダイナミクスをモデル化する
時空グラフ接続は空間と時間親和性に分解され、時空のクロストークをボトルネックにするとともに、完全結合と時間-時間相関を可能にする。
論文 参考訳(メタデータ) (2021-10-09T13:59:30Z) - Spatial-Temporal Graph ODE Networks for Traffic Flow Forecasting [22.421667339552467]
時空間予測は幅広い応用において大きな注目を集めており、交通流予測は標準的で典型的な例である。
既存の研究は通常、浅いグラフ畳み込みネットワーク(GNN)と時間的抽出モジュールを使用して、それぞれ空間的および時間的依存関係をモデル化する。
テンソル型常微分方程式(ODE)を用いて時空間ダイナミクスを捉える時空間グラフ正規微分方程式ネットワーク(STGODE)を提案する。
我々は,複数の実世界の交通データセット上でモデルを評価し,最先端のベースライン上で優れた性能を実現する。
論文 参考訳(メタデータ) (2021-06-24T11:48:45Z) - Spatial-Temporal Fusion Graph Neural Networks for Traffic Flow
Forecasting [35.072979313851235]
交通流の空間的-時間的データ予測は複雑な空間的依存性と道路間の時間的パターンの動的傾向のために難しい課題である。
既存のフレームワークは通常、与えられた空間隣接グラフと、空間的および時間的相関をモデル化する洗練されたメカニズムを利用する。
本稿では,交通流予測のための空間時間融合グラフニューラルネットワーク(STFGNN)を提案する。
論文 参考訳(メタデータ) (2020-12-15T14:03:17Z) - On the spatial attention in Spatio-Temporal Graph Convolutional Networks
for skeleton-based human action recognition [97.14064057840089]
カルチャーネットワーク(GCN)は、スケルトンをグラフとしてモデル化することで、スケルトンに基づく人間の行動認識の性能を約束する。
最近提案されたG時間に基づく手法のほとんどは、ネットワークの各層におけるグラフ構造を学習することで、性能を向上させる。
論文 参考訳(メタデータ) (2020-11-07T19:03:04Z) - Disentangling and Unifying Graph Convolutions for Skeleton-Based Action
Recognition [79.33539539956186]
本稿では,マルチスケールグラフ畳み込みと,G3Dという空間時間グラフ畳み込み演算子を結合する簡単な方法を提案する。
これらの提案を結合することにより,MS-G3Dという強力な特徴抽出器を開発し,そのモデルが3つの大規模データセット上で従来の最先端手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-03-31T11:28:25Z) - A Spatial-Temporal Attentive Network with Spatial Continuity for
Trajectory Prediction [74.00750936752418]
空間連続性をもつ空間時間減衰ネットワーク(STAN-SC)という新しいモデルを提案する。
まず、最も有用かつ重要な情報を探るために、空間的時間的注意機構を提示する。
第2に、生成軌道の空間的連続性を維持するために、シーケンスと瞬間状態情報に基づく共同特徴系列を実行する。
論文 参考訳(メタデータ) (2020-03-13T04:35:50Z) - Spatial-Temporal Transformer Networks for Traffic Flow Forecasting [74.76852538940746]
本稿では,長期交通予測の精度を向上させるため,時空間変圧器ネットワーク(STTN)の新たなパラダイムを提案する。
具体的には、有向空間依存を動的にモデル化することにより、空間変換器と呼ばれる新しいグラフニューラルネットワークを提案する。
提案モデルにより,長期間にわたる空間的依存関係に対する高速かつスケーラブルなトレーニングが可能になる。
論文 参考訳(メタデータ) (2020-01-09T10:21:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。