論文の概要: Temporal Graph Modeling for Skeleton-based Action Recognition
- arxiv url: http://arxiv.org/abs/2012.08804v1
- Date: Wed, 16 Dec 2020 09:02:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-03 02:51:02.507685
- Title: Temporal Graph Modeling for Skeleton-based Action Recognition
- Title(参考訳): 骨格に基づく行動認識のための時間グラフモデリング
- Authors: Jianan Li, Xuemei Xie, Zhifu Zhao, Yuhan Cao, Qingzhe Pan and
Guangming Shi
- Abstract要約: 複雑な時間的ダイナミクスを捉えるための時間拡張グラフ畳み込みネットワーク(TE-GCN)を提案する。
構築された時間関係グラフは、意味的に関連する時間的特徴間の接続を明示的に構築する。
2つの大規模データセットで実験を行う。
- 参考スコア(独自算出の注目度): 25.788239844759246
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Convolutional Networks (GCNs), which model skeleton data as graphs,
have obtained remarkable performance for skeleton-based action recognition.
Particularly, the temporal dynamic of skeleton sequence conveys significant
information in the recognition task. For temporal dynamic modeling, GCN-based
methods only stack multi-layer 1D local convolutions to extract temporal
relations between adjacent time steps. With the repeat of a lot of local
convolutions, the key temporal information with non-adjacent temporal distance
may be ignored due to the information dilution. Therefore, these methods still
remain unclear how to fully explore temporal dynamic of skeleton sequence. In
this paper, we propose a Temporal Enhanced Graph Convolutional Network (TE-GCN)
to tackle this limitation. The proposed TE-GCN constructs temporal relation
graph to capture complex temporal dynamic. Specifically, the constructed
temporal relation graph explicitly builds connections between semantically
related temporal features to model temporal relations between both adjacent and
non-adjacent time steps. Meanwhile, to further explore the sufficient temporal
dynamic, multi-head mechanism is designed to investigate multi-kinds of
temporal relations. Extensive experiments are performed on two widely used
large-scale datasets, NTU-60 RGB+D and NTU-120 RGB+D. And experimental results
show that the proposed model achieves the state-of-the-art performance by
making contribution to temporal modeling for action recognition.
- Abstract(参考訳): 骨格データをグラフとしてモデル化するグラフ畳み込みネットワーク(GCN)は、骨格に基づく行動認識において顕著な性能を得た。
特に、骨格配列の時間的ダイナミクスは認識タスクにおいて重要な情報を伝達する。
時間的動的モデリングにおいて、GCNに基づく手法は、隣接する時間ステップ間の時間的関係を抽出するために、多層1次元局所畳み込みのみを積み重ねる。
局所的な畳み込みの繰り返しにより,非隣接時間距離の重要時間情報は情報希釈のために無視される可能性がある。
したがって、これらの方法はまだ骨格配列の時間的ダイナミクスを十分に探求する方法が不明である。
本稿では,この制限に対処するための時間拡張グラフ畳み込みネットワーク(TE-GCN)を提案する。
TE-GCNは、複雑な時間的ダイナミクスを捉えるために時間的関係グラフを構成する。
具体的には、構築された時間関係グラフは、隣接時間ステップと非隣接時間ステップの両方の時間関係をモデル化するために、意味的に関連する時間的特徴間の関係を明示的に構築する。
一方、十分な時間的ダイナミクスを探求するために、時間的関係の多種間を調査するために、マルチヘッド機構が設計されている。
NTU-60 RGB+DとNTU-120 RGB+Dの2つの大規模データセットで大規模な実験が行われた。
実験結果から,動作認識のための時間的モデリングに寄与することで,提案モデルが最先端の性能を達成することを示す。
関連論文リスト
- Learning the Evolutionary and Multi-scale Graph Structure for
Multivariate Time Series Forecasting [50.901984244738806]
時系列の進化的・マルチスケール相互作用をモデル化する方法を示す。
特に、まず、拡張畳み込みと協調して、スケール固有の相関を捉える階層グラフ構造を提供する。
最終的な予測を得るために上記のコンポーネントを統合するために、統合ニューラルネットワークが提供される。
論文 参考訳(メタデータ) (2022-06-28T08:11:12Z) - Multi-Scale Spatial Temporal Graph Convolutional Network for
Skeleton-Based Action Recognition [13.15374205970988]
本稿では,マルチスケール空間グラフ畳み込み (MS-GC) モジュールとマルチスケール時間グラフ畳み込み (MT-GC) モジュールを提案する。
MS-GCおよびMT-GCモジュールは対応する局所グラフ畳み込みをサブグラフ畳み込みの集合に分解し、階層的残差アーキテクチャを形成する。
本稿では,マルチスケールな時空間グラフ畳み込みネットワーク(MST-GCN)を提案する。
論文 参考訳(メタデータ) (2022-06-27T03:17:33Z) - Skeleton-based Action Recognition via Temporal-Channel Aggregation [5.620303498964992]
空間的・時間的トポロジを学習するために,TCA-CN(Temporal-Channel Aggregation Graph Conal Networks)を提案する。
さらに,マルチスケールの骨格時間モデリングを抽出し,注意機構を備えた事前骨格知識と融合する。
論文 参考訳(メタデータ) (2022-05-31T16:28:30Z) - Temporal Knowledge Graph Reasoning with Low-rank and Model-agnostic
Representations [1.8262547855491458]
低ランクテンソル分解モデル LowFER のパラメータ効率および時間認識拡張系である Time-LowFER を導入する。
時間を表現するための現在のアプローチのいくつかの制限に留意し、時間特徴に対するサイクル対応の時間符号化方式を提案する。
我々は,時間に敏感なデータ処理に着目した統合時間知識グラフ埋め込みフレームワークに本手法を実装した。
論文 参考訳(メタデータ) (2022-04-10T22:24:11Z) - SpatioTemporal Focus for Skeleton-based Action Recognition [66.8571926307011]
グラフ畳み込みネットワーク(GCN)は骨格に基づく行動認識において広く採用されている。
近年提案されている骨格に基づく行動認識法の性能は以下の要因によって制限されていると論じる。
近年の注目機構に着想を得て,アクション関連関係情報を取得するためのマルチグラインド・コンテキスト集中モジュール MCF を提案する。
論文 参考訳(メタデータ) (2022-03-31T02:45:24Z) - Multivariate Time Series Forecasting with Dynamic Graph Neural ODEs [65.18780403244178]
動的グラフニューラル正規微分方程式(MTGODE)を用いた多変量時系列予測連続モデルを提案する。
具体的には、まず、時間進化するノードの特徴と未知のグラフ構造を持つ動的グラフに多変量時系列を抽象化する。
そして、欠落したグラフトポロジを補完し、空間的および時間的メッセージパッシングを統一するために、ニューラルODEを設計、解決する。
論文 参考訳(メタデータ) (2022-02-17T02:17:31Z) - Spatio-Temporal Joint Graph Convolutional Networks for Traffic
Forecasting [78.82484713596226]
本稿では,道路網における交通予測のための時空間共同グラフ畳み込み (STJGCN) を提案する。
具体的には、包括的空間相関と動的時間相関を表わす任意の2つの時間ステップ間で、事前定義された、適応的な関節グラフ(STJG)を構築する。
異なる範囲の情報を集約するマルチレンジアテンション機構を提案する。
論文 参考訳(メタデータ) (2021-11-25T08:45:14Z) - Continuous-Time Sequential Recommendation with Temporal Graph
Collaborative Transformer [69.0621959845251]
本稿では,定義した連続時間二部グラフ上での時間グラフシーケンスレコメンダ(TGSRec)を提案する。
TCTレイヤは、ユーザとアイテムの両方からの協調的な信号を同時にキャプチャすると同時に、シーケンシャルパターン内の時間的ダイナミクスも考慮する。
5つのデータセットの実証結果は、TGSRecが他のベースラインを大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2021-08-14T22:50:53Z) - Spatial-Temporal Correlation and Topology Learning for Person
Re-Identification in Videos [78.45050529204701]
クロススケール空間時空間相関をモデル化し, 識別的, 堅牢な表現を追求する新しい枠組みを提案する。
CTLはCNNバックボーンとキーポイント推定器を使用して人体から意味的局所的特徴を抽出する。
グローバルな文脈情報と人体の物理的接続の両方を考慮して、多スケールグラフを構築するためのコンテキスト強化トポロジーを探求する。
論文 参考訳(メタデータ) (2021-04-15T14:32:12Z) - A Two-stream Neural Network for Pose-based Hand Gesture Recognition [23.50938160992517]
近年,ポーズに基づくジェスチャー認識が広く研究されている。
本稿では,グラフ畳み込みネットワーク(sagcn)を1ストリームとする2ストリームニューラルネットワークを提案する。
残差接続強化Bi-IndRNNは、時間モデリングのための双方向処理機能を備えたIndRNNを拡張する。
論文 参考訳(メタデータ) (2021-01-22T03:22:26Z) - Temporal Knowledge Graph Forecasting with Neural ODE [19.64877769280854]
連続体深度モデルの概念を時間発展型マルチリレーショナルグラフデータに拡張する。
GNN(Graph Neural Network)によるNODEと構造情報による時間情報のキャプチャ
本モデルでは,連続モデルが実現され,将来予測のためのノード表現を効率的に学習する。
論文 参考訳(メタデータ) (2021-01-13T15:49:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。