論文の概要: Temporal Attention-Augmented Graph Convolutional Network for Efficient
Skeleton-Based Human Action Recognition
- arxiv url: http://arxiv.org/abs/2010.12221v3
- Date: Thu, 22 Apr 2021 18:15:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 23:10:08.357475
- Title: Temporal Attention-Augmented Graph Convolutional Network for Efficient
Skeleton-Based Human Action Recognition
- Title(参考訳): 時間的注意喚起グラフ畳み込みネットワークによるスケルトンに基づく人間行動認識
- Authors: Negar Heidari, Alexandros Iosifidis
- Abstract要約: グラフネットワーク(GCN)はユークリッド以外のデータ構造をモデル化するのに非常に成功した。
ほとんどのGCNベースのアクション認識手法は、計算量の多いディープフィードフォワードネットワークを使用して、全てのスケルトンをアクションで処理する。
本稿では,骨格に基づく行動認識の効率を高めるための時間的アテンションモジュール(TAM)を提案する。
- 参考スコア(独自算出の注目度): 97.14064057840089
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph convolutional networks (GCNs) have been very successful in modeling
non-Euclidean data structures, like sequences of body skeletons forming actions
modeled as spatio-temporal graphs. Most GCN-based action recognition methods
use deep feed-forward networks with high computational complexity to process
all skeletons in an action. This leads to a high number of floating point
operations (ranging from 16G to 100G FLOPs) to process a single sample, making
their adoption in restricted computation application scenarios infeasible. In
this paper, we propose a temporal attention module (TAM) for increasing the
efficiency in skeleton-based action recognition by selecting the most
informative skeletons of an action at the early layers of the network. We
incorporate the TAM in a light-weight GCN topology to further reduce the
overall number of computations. Experimental results on two benchmark datasets
show that the proposed method outperforms with a large margin the baseline
GCN-based method while having 2.9 times less number of computations. Moreover,
it performs on par with the state-of-the-art with up to 9.6 times less number
of computations.
- Abstract(参考訳): グラフ畳み込みネットワーク(gcns)は、時空間グラフとしてモデル化された身体骨格のシーケンスのような非ユークリッドデータ構造のモデル化に非常に成功している。
ほとんどのGCNベースのアクション認識手法は、計算量の多いディープフィードフォワードネットワークを使用して、全てのスケルトンをアクションで処理する。
これにより、単一のサンプルを処理するための浮動小数点演算(16Gから100GのFLOP)が多くなり、制限された計算アプリケーションシナリオに採用される。
本稿では,ネットワークの初期層における行動の最も情報性の高い骨格を選択することで,骨格に基づく行動認識の効率を高めるための時間的注意モジュール(TAM)を提案する。
我々は、tamを軽量gcnトポロジーに組み込むことにより、計算全体の数をさらに削減する。
2つのベンチマークデータセットによる実験結果から,提案手法はGCN法よりも2.9倍少ない計算量で性能に優れていた。
さらに、最先端の計算と同等に動作し、最大9.6倍の計算量を持つ。
関連論文リスト
- Comprehensive Graph Gradual Pruning for Sparse Training in Graph Neural
Networks [52.566735716983956]
本稿では,CGPと呼ばれるグラフの段階的プルーニングフレームワークを動的にGNNに提案する。
LTHに基づく手法とは異なり、提案手法では再学習を必要とせず、計算コストを大幅に削減する。
提案手法は,既存の手法の精度を一致させたり,あるいは超えたりしながら,トレーニングと推論の効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-18T14:23:31Z) - Learning Multi-Granular Spatio-Temporal Graph Network for Skeleton-based
Action Recognition [49.163326827954656]
骨格に基づく行動分類のための新しい多言語時空間グラフネットワークを提案する。
2つの枝の枝からなるデュアルヘッドグラフネットワークを開発し、少なくとも2つの時間分解能を抽出する。
3つの大規模データセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2021-08-10T09:25:07Z) - Towards Efficient Graph Convolutional Networks for Point Cloud Handling [181.59146413326056]
ポイントクラウド上で学習するためのグラフ畳み込みネットワーク(GCN)の計算効率の向上を目指します。
一連の実験により、最適化されたネットワークは計算複雑性を減らし、メモリ消費を減らし、推論速度を加速した。
論文 参考訳(メタデータ) (2021-04-12T17:59:16Z) - Spatio-Temporal Inception Graph Convolutional Networks for
Skeleton-Based Action Recognition [126.51241919472356]
我々はスケルトンに基づく行動認識のためのシンプルで高度にモジュール化されたグラフ畳み込みネットワークアーキテクチャを設計する。
ネットワークは,空間的および時間的経路から多粒度情報を集約するビルディングブロックを繰り返すことで構築される。
論文 参考訳(メタデータ) (2020-11-26T14:43:04Z) - MG-GCN: Fast and Effective Learning with Mix-grained Aggregators for
Training Large Graph Convolutional Networks [20.07942308916373]
グラフ畳み込みネットワーク(GCN)は、隣人層の情報を層ごとに集約することでノードの埋め込みを生成する。
GCNの高計算とメモリコストにより、大きなグラフのトレーニングが不可能になる。
MG-GCNと呼ばれる新しいモデルでは、精度、トレーニング速度、収束速度、メモリコストの点で最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2020-11-17T14:51:57Z) - Progressive Spatio-Temporal Graph Convolutional Network for
Skeleton-Based Human Action Recognition [97.14064057840089]
本稿では,グラフ畳み込みネットワークのためのコンパクトで問題固有のネットワークを,段階的に自動的に見つける手法を提案する。
骨格に基づく人体行動認識のための2つのデータセットの実験結果から,提案手法は競争力あるいはより優れた分類性能を有することが示された。
論文 参考訳(メタデータ) (2020-11-11T09:57:49Z) - Stronger, Faster and More Explainable: A Graph Convolutional Baseline
for Skeleton-based Action Recognition [22.90127409366107]
グラフ畳み込みネットワーク(GCN)に基づく効率的だが強力なベースラインを提案する。
畳み込みニューラルネットワーク(CNN)におけるResNetアーキテクチャの成功に触発されたResGCNモジュールがGCNで導入された。
PartAttブロックは、アクションシーケンス全体の上で最も重要な身体部分を発見するために提案される。
論文 参考訳(メタデータ) (2020-10-20T02:56:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。