論文の概要: Skeleton-based Action Recognition via Temporal-Channel Aggregation
- arxiv url: http://arxiv.org/abs/2205.15936v1
- Date: Tue, 31 May 2022 16:28:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-01 14:57:41.601199
- Title: Skeleton-based Action Recognition via Temporal-Channel Aggregation
- Title(参考訳): テンポラルチャネルアグリゲーションによる骨格に基づく行動認識
- Authors: Shengqin Wang, Yongji Zhang, Fenglin Wei, Kai Wang, Minghao Zhao, Yu
Jiang
- Abstract要約: 空間的・時間的トポロジを学習するために,TCA-CN(Temporal-Channel Aggregation Graph Conal Networks)を提案する。
さらに,マルチスケールの骨格時間モデリングを抽出し,注意機構を備えた事前骨格知識と融合する。
- 参考スコア(独自算出の注目度): 5.620303498964992
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Skeleton-based action recognition methods are limited by the semantic
extraction of spatio-temporal skeletal maps. However, current methods have
difficulty in effectively combining features from both temporal and spatial
graph dimensions and tend to be thick on one side and thin on the other. In
this paper, we propose a Temporal-Channel Aggregation Graph Convolutional
Networks (TCA-GCN) to learn spatial and temporal topologies dynamically and
efficiently aggregate topological features in different temporal and channel
dimensions for skeleton-based action recognition. We use the Temporal
Aggregation module to learn temporal dimensional features and the Channel
Aggregation module to efficiently combine spatial dynamic topological features
learned using Channel-wise with temporal dynamic topological features. In
addition, we extract multi-scale skeletal features on temporal modeling and
fuse them with priori skeletal knowledge with an attention mechanism. Extensive
experiments show that our model results outperform state-of-the-art methods on
the NTU RGB+D, NTU RGB+D 120, and NW-UCLA datasets.
- Abstract(参考訳): スケルトンに基づく行動認識法は時空間骨格図の意味抽出によって制限される。
しかし、現在の手法は時間グラフ次元と空間グラフ次元の両方の特徴を効果的に組み合わせることが困難であり、一方は厚く、他方は薄い傾向にある。
本稿では,時間的・時間的トポロジーを動的に学習し,スケルトンベース行動認識のための時間的・チャネル的特徴を効率的に集約する時間的チャネル集約グラフ畳み込みネットワーク(tca-gcn)を提案する。
時間的アグリゲーションモジュールを用いて時間的次元特徴を学習し,チャネルアグリゲーションモジュールを用いて時間的動的位相特徴と時間的動的位相特徴を用いて学習した空間的動的位相特徴を効率的に結合する。
さらに,時間モデルにおける多次元骨格特徴を抽出し,注意機構を用いて先行骨格知識と融合する。
実験の結果,NTU RGB+D, NTU RGB+D 120, NW-UCLAデータセットでは, 最先端の手法よりも優れた結果が得られた。
関連論文リスト
- Multi-Scale Spatial-Temporal Self-Attention Graph Convolutional Networks for Skeleton-based Action Recognition [0.0]
本稿では,マルチスケール空間時間自己注意(MSST)-GCNという自己注意型GCNハイブリッドモデルを提案する。
適応トポロジを持つ空間自己保持モジュールを用いて、異なる身体部分間のフレーム内相互作用を理解するとともに、時間的自己保持モジュールを用いてノードのフレーム間の相関関係を調べる。
論文 参考訳(メタデータ) (2024-04-03T10:25:45Z) - A Decoupled Spatio-Temporal Framework for Skeleton-based Action
Segmentation [89.86345494602642]
既存の手法は、弱い時間的モデリング能力に制限されている。
この問題に対処するために、Decoupled Scoupled Framework (DeST)を提案する。
DeSTは計算量が少なく、現在の最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2023-12-10T09:11:39Z) - Spatio-Temporal Branching for Motion Prediction using Motion Increments [55.68088298632865]
HMP(Human Motion Prediction)はその多種多様な応用により、人気のある研究トピックとして浮上している。
従来の手法は手作りの機能と機械学習技術に依存している。
HMPのためのインクリメンタル情報を用いた時空間分岐ネットワークを提案する。
論文 参考訳(メタデータ) (2023-08-02T12:04:28Z) - One-Shot Action Recognition via Multi-Scale Spatial-Temporal Skeleton
Matching [77.6989219290789]
ワンショットスケルトン行動認識は、単一のトレーニングサンプルでスケルトン行動認識モデルを学ぶことを目的としている。
本稿では,マルチスケールな時空間特徴マッチングによる骨格行動認識を行う新しい一発骨格行動認識手法を提案する。
論文 参考訳(メタデータ) (2023-07-14T11:52:10Z) - Temporal-Channel Topology Enhanced Network for Skeleton-Based Action
Recognition [26.609509266693077]
骨格に基づく行動認識のための空間的トポロジと時間的トポロジを学習するための新しいCNNアーキテクチャTCTE-Netを提案する。
TCTE-Netは、CNNベースの手法と比較して最先端の性能を示し、GCNベースの手法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2023-02-25T03:09:07Z) - Dynamic Spatial-temporal Hypergraph Convolutional Network for
Skeleton-based Action Recognition [4.738525281379023]
骨格に基づく行動認識は空間的時間的トポロジ情報の抽出に依存する。
本稿では,骨格型行動認識のための動的時空間ハイパーグラフ畳み込みネットワーク(DST-HCN)を提案する。
論文 参考訳(メタデータ) (2023-02-17T04:42:19Z) - Multi-Scale Spatial Temporal Graph Convolutional Network for
Skeleton-Based Action Recognition [13.15374205970988]
本稿では,マルチスケール空間グラフ畳み込み (MS-GC) モジュールとマルチスケール時間グラフ畳み込み (MT-GC) モジュールを提案する。
MS-GCおよびMT-GCモジュールは対応する局所グラフ畳み込みをサブグラフ畳み込みの集合に分解し、階層的残差アーキテクチャを形成する。
本稿では,マルチスケールな時空間グラフ畳み込みネットワーク(MST-GCN)を提案する。
論文 参考訳(メタデータ) (2022-06-27T03:17:33Z) - Slow-Fast Visual Tempo Learning for Video-based Action Recognition [78.3820439082979]
アクション・ビジュアル・テンポ(Action visual tempo)は、アクションのダイナミクスと時間スケールを特徴付ける。
以前の方法は、複数のレートで生のビデオをサンプリングするか、階層的にバックボーンの特徴をサンプリングすることによって、視覚的テンポをキャプチャする。
単一層における低レベルバックボーン特徴からアクション・テンポを抽出するための時間相関モジュール(TCM)を提案する。
論文 参考訳(メタデータ) (2022-02-24T14:20:04Z) - Temporal Graph Modeling for Skeleton-based Action Recognition [25.788239844759246]
複雑な時間的ダイナミクスを捉えるための時間拡張グラフ畳み込みネットワーク(TE-GCN)を提案する。
構築された時間関係グラフは、意味的に関連する時間的特徴間の接続を明示的に構築する。
2つの大規模データセットで実験を行う。
論文 参考訳(メタデータ) (2020-12-16T09:02:47Z) - Learn to cycle: Time-consistent feature discovery for action recognition [83.43682368129072]
時間的変動を一般化することは、ビデオにおける効果的な行動認識の前提条件である。
Squeeze Re Temporal Gates (SRTG) を導入する。
SRTPGブロックを使用する場合,GFLOの数は最小限に抑えられ,一貫した改善が見られた。
論文 参考訳(メタデータ) (2020-06-15T09:36:28Z) - Disentangling and Unifying Graph Convolutions for Skeleton-Based Action
Recognition [79.33539539956186]
本稿では,マルチスケールグラフ畳み込みと,G3Dという空間時間グラフ畳み込み演算子を結合する簡単な方法を提案する。
これらの提案を結合することにより,MS-G3Dという強力な特徴抽出器を開発し,そのモデルが3つの大規模データセット上で従来の最先端手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-03-31T11:28:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。