論文の概要: Feedback Graph Convolutional Network for Skeleton-based Action
Recognition
- arxiv url: http://arxiv.org/abs/2003.07564v1
- Date: Tue, 17 Mar 2020 07:20:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 21:20:37.972251
- Title: Feedback Graph Convolutional Network for Skeleton-based Action
Recognition
- Title(参考訳): スケルトンに基づく行動認識のためのフィードバックグラフ畳み込みネットワーク
- Authors: Hao Yang, Dan Yan, Li Zhang, Dong Li, YunDa Sun, ShaoDi You, Stephen
J. Maybank
- Abstract要約: フィードバックグラフ畳み込みネットワーク(FGCN)という新しいネットワークを提案する。
これは、GCNとアクション認識にフィードバックメカニズムを導入する最初の作業である。
3つのデータセット上で最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 38.782491442635205
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Skeleton-based action recognition has attracted considerable attention in
computer vision since skeleton data is more robust to the dynamic circumstance
and complicated background than other modalities. Recently, many researchers
have used the Graph Convolutional Network (GCN) to model spatial-temporal
features of skeleton sequences by an end-to-end optimization. However,
conventional GCNs are feedforward networks which are impossible for low-level
layers to access semantic information in the high-level layers. In this paper,
we propose a novel network, named Feedback Graph Convolutional Network (FGCN).
This is the first work that introduces the feedback mechanism into GCNs and
action recognition. Compared with conventional GCNs, FGCN has the following
advantages: (1) a multi-stage temporal sampling strategy is designed to extract
spatial-temporal features for action recognition in a coarse-to-fine
progressive process; (2) A dense connections based Feedback Graph Convolutional
Block (FGCB) is proposed to introduce feedback connections into the GCNs. It
transmits the high-level semantic features to the low-level layers and flows
temporal information stage by stage to progressively model global
spatial-temporal features for action recognition; (3) The FGCN model provides
early predictions. In the early stages, the model receives partial information
about actions. Naturally, its predictions are relatively coarse. The coarse
predictions are treated as the prior to guide the feature learning of later
stages for a accurate prediction. Extensive experiments on the datasets,
NTU-RGB+D, NTU-RGB+D120 and Northwestern-UCLA, demonstrate that the proposed
FGCN is effective for action recognition. It achieves the state-of-the-art
performance on the three datasets.
- Abstract(参考訳): スケルトンに基づく行動認識は、骨格データが他のモダリティよりもダイナミックな状況と複雑な背景に対して堅牢であるため、コンピュータビジョンにおいて大きな注目を集めている。
近年,多くの研究者がGCN(Graph Convolutional Network)を用いて骨格配列の時空間的特徴をエンドツーエンドの最適化によってモデル化している。
しかし、従来のGCNはフィードフォワードネットワークであり、低層層では高層層のセマンティック情報にアクセスできない。
本稿では,FGCN(Feedback Graph Convolutional Network)という新しいネットワークを提案する。
これは、GCNとアクション認識にフィードバックメカニズムを導入する最初の作業である。
従来のGCNと比較して、FGCNは、(1)粗大な進行過程における行動認識のための時空間的特徴を抽出する多段階時空間サンプリング戦略、(2)高密度な接続に基づくフィードバックグラフ畳み込みブロック(FGCB)を提案し、GCNにフィードバック接続を導入する。
低レベル層に高レベルな意味的特徴を伝達し、段階的に時間的情報を流し、行動認識のための大域的空間-時間的特徴を段階的にモデル化する。
初期の段階では、モデルはアクションに関する部分的な情報を受け取る。
当然、その予測は比較的粗い。
粗い予測は、正確な予測のために後段の機能学習を導く前処理として扱われる。
データセット、NTU-RGB+D、NTU-RGB+D120、ノースウェスタンUCLAの大規模な実験は、提案されたFGCNが行動認識に有効であることを示した。
3つのデータセットで最先端のパフォーマンスを達成する。
関連論文リスト
- GCN-DevLSTM: Path Development for Skeleton-Based Action Recognition [10.562869805151411]
ビデオにおける骨格に基づく行動認識は、コンピュータビジョンにおいて重要であるが難しい課題である。
本稿では,リー群構造を利用した逐次データ表現法を提案する。
提案するGCN-DevLSTMネットワークは,強いGCNベースラインモデルの改良を一貫して行い,SARタスクの堅牢性に優れたSOTA結果が得られる。
論文 参考訳(メタデータ) (2024-03-22T13:55:52Z) - DD-GCN: Directed Diffusion Graph Convolutional Network for
Skeleton-based Human Action Recognition [10.115283931959855]
Graphal Networks (GCNs) は骨格に基づく人間の行動認識に広く利用されている。
本稿では,行動モデリングのための指向的拡散を構築し,行動分割戦略を導入する。
また、同期時間意味論を組み込むことも提案する。
論文 参考訳(メタデータ) (2023-08-24T01:53:59Z) - CCasGNN: Collaborative Cascade Prediction Based on Graph Neural Networks [0.49269463638915806]
カスケード予測は,ネットワーク内の情報拡散をモデル化することを目的とした。
グラフニューラルネットワークとリカレントニューラルネットワークによるネットワーク構造とシーケンス特徴の組み合わせに関する研究
本稿では,個々のプロファイル,構造特徴,シーケンス情報を考慮した新しいCCasGNNを提案する。
論文 参考訳(メタデータ) (2021-12-07T11:37:36Z) - Tackling Oversmoothing of GNNs with Contrastive Learning [35.88575306925201]
グラフニューラルネットワーク(GNN)は、グラフデータと表現学習能力の包括的な関係を統合する。
オーバースムーシングはノードの最終的な表現を識別不能にし、ノード分類とリンク予測性能を劣化させる。
本稿では,TGCL(Topology-Guided Graph Contrastive Layer)を提案する。
論文 参考訳(メタデータ) (2021-10-26T15:56:16Z) - Spatio-Temporal Inception Graph Convolutional Networks for
Skeleton-Based Action Recognition [126.51241919472356]
我々はスケルトンに基づく行動認識のためのシンプルで高度にモジュール化されたグラフ畳み込みネットワークアーキテクチャを設計する。
ネットワークは,空間的および時間的経路から多粒度情報を集約するビルディングブロックを繰り返すことで構築される。
論文 参考訳(メタデータ) (2020-11-26T14:43:04Z) - On the spatial attention in Spatio-Temporal Graph Convolutional Networks
for skeleton-based human action recognition [97.14064057840089]
カルチャーネットワーク(GCN)は、スケルトンをグラフとしてモデル化することで、スケルトンに基づく人間の行動認識の性能を約束する。
最近提案されたG時間に基づく手法のほとんどは、ネットワークの各層におけるグラフ構造を学習することで、性能を向上させる。
論文 参考訳(メタデータ) (2020-11-07T19:03:04Z) - Temporal Attention-Augmented Graph Convolutional Network for Efficient
Skeleton-Based Human Action Recognition [97.14064057840089]
グラフネットワーク(GCN)はユークリッド以外のデータ構造をモデル化するのに非常に成功した。
ほとんどのGCNベースのアクション認識手法は、計算量の多いディープフィードフォワードネットワークを使用して、全てのスケルトンをアクションで処理する。
本稿では,骨格に基づく行動認識の効率を高めるための時間的アテンションモジュール(TAM)を提案する。
論文 参考訳(メタデータ) (2020-10-23T08:01:55Z) - AM-GCN: Adaptive Multi-channel Graph Convolutional Networks [85.0332394224503]
グラフ畳み込みネットワーク(GCN)は,豊富な情報を持つ複雑なグラフにおいて,ノードの特徴と位相構造を最適に統合できるかどうかを検討する。
半教師付き分類(AM-GCN)のための適応型マルチチャネルグラフ畳み込みネットワークを提案する。
実験の結果,AM-GCNはノードの特徴とトポロジ的構造の両方から最も相関性の高い情報を抽出することがわかった。
論文 参考訳(メタデータ) (2020-07-05T08:16:03Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。