論文の概要: Temporal Graph Modeling for Skeleton-based Action Recognition
- arxiv url: http://arxiv.org/abs/2012.08804v1
- Date: Wed, 16 Dec 2020 09:02:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-03 02:51:02.507685
- Title: Temporal Graph Modeling for Skeleton-based Action Recognition
- Title(参考訳): 骨格に基づく行動認識のための時間グラフモデリング
- Authors: Jianan Li, Xuemei Xie, Zhifu Zhao, Yuhan Cao, Qingzhe Pan and
Guangming Shi
- Abstract要約: 複雑な時間的ダイナミクスを捉えるための時間拡張グラフ畳み込みネットワーク(TE-GCN)を提案する。
構築された時間関係グラフは、意味的に関連する時間的特徴間の接続を明示的に構築する。
2つの大規模データセットで実験を行う。
- 参考スコア(独自算出の注目度): 25.788239844759246
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Convolutional Networks (GCNs), which model skeleton data as graphs,
have obtained remarkable performance for skeleton-based action recognition.
Particularly, the temporal dynamic of skeleton sequence conveys significant
information in the recognition task. For temporal dynamic modeling, GCN-based
methods only stack multi-layer 1D local convolutions to extract temporal
relations between adjacent time steps. With the repeat of a lot of local
convolutions, the key temporal information with non-adjacent temporal distance
may be ignored due to the information dilution. Therefore, these methods still
remain unclear how to fully explore temporal dynamic of skeleton sequence. In
this paper, we propose a Temporal Enhanced Graph Convolutional Network (TE-GCN)
to tackle this limitation. The proposed TE-GCN constructs temporal relation
graph to capture complex temporal dynamic. Specifically, the constructed
temporal relation graph explicitly builds connections between semantically
related temporal features to model temporal relations between both adjacent and
non-adjacent time steps. Meanwhile, to further explore the sufficient temporal
dynamic, multi-head mechanism is designed to investigate multi-kinds of
temporal relations. Extensive experiments are performed on two widely used
large-scale datasets, NTU-60 RGB+D and NTU-120 RGB+D. And experimental results
show that the proposed model achieves the state-of-the-art performance by
making contribution to temporal modeling for action recognition.
- Abstract(参考訳): 骨格データをグラフとしてモデル化するグラフ畳み込みネットワーク(GCN)は、骨格に基づく行動認識において顕著な性能を得た。
特に、骨格配列の時間的ダイナミクスは認識タスクにおいて重要な情報を伝達する。
時間的動的モデリングにおいて、GCNに基づく手法は、隣接する時間ステップ間の時間的関係を抽出するために、多層1次元局所畳み込みのみを積み重ねる。
局所的な畳み込みの繰り返しにより,非隣接時間距離の重要時間情報は情報希釈のために無視される可能性がある。
したがって、これらの方法はまだ骨格配列の時間的ダイナミクスを十分に探求する方法が不明である。
本稿では,この制限に対処するための時間拡張グラフ畳み込みネットワーク(TE-GCN)を提案する。
TE-GCNは、複雑な時間的ダイナミクスを捉えるために時間的関係グラフを構成する。
具体的には、構築された時間関係グラフは、隣接時間ステップと非隣接時間ステップの両方の時間関係をモデル化するために、意味的に関連する時間的特徴間の関係を明示的に構築する。
一方、十分な時間的ダイナミクスを探求するために、時間的関係の多種間を調査するために、マルチヘッド機構が設計されている。
NTU-60 RGB+DとNTU-120 RGB+Dの2つの大規模データセットで大規模な実験が行われた。
実験結果から,動作認識のための時間的モデリングに寄与することで,提案モデルが最先端の性能を達成することを示す。
関連論文リスト
- CTRL: Continuous-Time Representation Learning on Temporal Heterogeneous Information Network [32.42051167404171]
時間HINを用いた連続時間表現学習モデルを提案する。
我々は、高次ネットワーク構造の進化を捉えるために、将来の事象(サブグラフ)予測タスクでモデルを訓練する。
その結果,本モデルは性能を著しく向上し,様々な最先端手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-05-11T03:39:22Z) - Multi-Scale Spatial-Temporal Self-Attention Graph Convolutional Networks for Skeleton-based Action Recognition [0.0]
本稿では,マルチスケール空間時間自己注意(MSST)-GCNという自己注意型GCNハイブリッドモデルを提案する。
適応トポロジを持つ空間自己保持モジュールを用いて、異なる身体部分間のフレーム内相互作用を理解するとともに、時間的自己保持モジュールを用いてノードのフレーム間の相関関係を調べる。
論文 参考訳(メタデータ) (2024-04-03T10:25:45Z) - TimeGraphs: Graph-based Temporal Reasoning [64.18083371645956]
TimeGraphsは階層的時間グラフとして動的相互作用を特徴付ける新しいアプローチである。
提案手法は,コンパクトなグラフベース表現を用いて相互作用をモデル化し,多種多様な時間スケールでの適応推論を可能にする。
我々は,サッカーシミュレータ,抵抗ゲーム,MOMA人間活動データセットなど,複雑でダイナミックなエージェントインタラクションを持つ複数のデータセット上でTimeGraphsを評価する。
論文 参考訳(メタデータ) (2024-01-06T06:26:49Z) - Temporal Aggregation and Propagation Graph Neural Networks for Dynamic
Representation [67.26422477327179]
時間グラフは連続時間を通してノード間の動的相互作用を示す。
本研究では,周辺地域全体と時間的グラフ畳み込みの新たな手法を提案する。
提案するTAP-GNNは,予測性能とオンライン推論遅延の両面で,既存の時間グラフ手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-15T08:17:18Z) - Self-Supervised Temporal Graph learning with Temporal and Structural Intensity Alignment [53.72873672076391]
時間グラフ学習は、動的情報を用いたグラフベースのタスクのための高品質な表現を生成することを目的としている。
本稿では,時間的および構造的情報の両方を抽出する時間的グラフ学習のためのS2Tという自己教師型手法を提案する。
S2Tは、いくつかのデータセットにおける最先端の競合と比較して、少なくとも10.13%のパフォーマンス改善を実現している。
論文 参考訳(メタデータ) (2023-02-15T06:36:04Z) - Learning Sequence Representations by Non-local Recurrent Neural Memory [61.65105481899744]
教師付きシーケンス表現学習のためのNon-local Recurrent Neural Memory (NRNM)を提案する。
我々のモデルは長距離依存を捉えることができ、潜伏した高レベル特徴を我々のモデルで抽出することができる。
我々のモデルは、これらのシーケンスアプリケーションごとに特別に設計された他の最先端の手法と比較して好意的に比較する。
論文 参考訳(メタデータ) (2022-07-20T07:26:15Z) - Multi-Scale Spatial Temporal Graph Convolutional Network for
Skeleton-Based Action Recognition [13.15374205970988]
本稿では,マルチスケール空間グラフ畳み込み (MS-GC) モジュールとマルチスケール時間グラフ畳み込み (MT-GC) モジュールを提案する。
MS-GCおよびMT-GCモジュールは対応する局所グラフ畳み込みをサブグラフ畳み込みの集合に分解し、階層的残差アーキテクチャを形成する。
本稿では,マルチスケールな時空間グラフ畳み込みネットワーク(MST-GCN)を提案する。
論文 参考訳(メタデータ) (2022-06-27T03:17:33Z) - Skeleton-based Action Recognition via Temporal-Channel Aggregation [5.620303498964992]
空間的・時間的トポロジを学習するために,TCA-CN(Temporal-Channel Aggregation Graph Conal Networks)を提案する。
さらに,マルチスケールの骨格時間モデリングを抽出し,注意機構を備えた事前骨格知識と融合する。
論文 参考訳(メタデータ) (2022-05-31T16:28:30Z) - Spatio-Temporal Joint Graph Convolutional Networks for Traffic
Forecasting [75.10017445699532]
近年、時間グラフモデリング問題として交通予測の定式化に焦点が移っている。
本稿では,道路網における交通予測の精度向上のための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-11-25T08:45:14Z) - Disentangling and Unifying Graph Convolutions for Skeleton-Based Action
Recognition [79.33539539956186]
本稿では,マルチスケールグラフ畳み込みと,G3Dという空間時間グラフ畳み込み演算子を結合する簡単な方法を提案する。
これらの提案を結合することにより,MS-G3Dという強力な特徴抽出器を開発し,そのモデルが3つの大規模データセット上で従来の最先端手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-03-31T11:28:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。