論文の概要: Temporal-Channel Topology Enhanced Network for Skeleton-Based Action
Recognition
- arxiv url: http://arxiv.org/abs/2302.12967v1
- Date: Sat, 25 Feb 2023 03:09:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-28 19:45:27.626648
- Title: Temporal-Channel Topology Enhanced Network for Skeleton-Based Action
Recognition
- Title(参考訳): 骨格に基づく行動認識のための時間チャネルトポロジー強化ネットワーク
- Authors: Jinzhao Luo, Lu Zhou, Guibo Zhu, Guojing Ge, Beiying Yang, Jinqiao
Wang
- Abstract要約: 骨格に基づく行動認識のための空間的トポロジと時間的トポロジを学習するための新しいCNNアーキテクチャTCTE-Netを提案する。
TCTE-Netは、CNNベースの手法と比較して最先端の性能を示し、GCNベースの手法よりも優れた性能を実現する。
- 参考スコア(独自算出の注目度): 26.609509266693077
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Skeleton-based action recognition has become popular in recent years due to
its efficiency and robustness. Most current methods adopt graph convolutional
network (GCN) for topology modeling, but GCN-based methods are limited in
long-distance correlation modeling and generalizability. In contrast, the
potential of convolutional neural network (CNN) for topology modeling has not
been fully explored. In this paper, we propose a novel CNN architecture,
Temporal-Channel Topology Enhanced Network (TCTE-Net), to learn spatial and
temporal topologies for skeleton-based action recognition. The TCTE-Net
consists of two modules: the Temporal-Channel Focus module, which learns a
temporal-channel focus matrix to identify the most critical feature
representations, and the Dynamic Channel Topology Attention module, which
dynamically learns spatial topological features, and fuses them with an
attention mechanism to model long-distance channel-wise topology. We conduct
experiments on NTU RGB+D, NTU RGB+D 120, and FineGym datasets. TCTE-Net shows
state-of-the-art performance compared to CNN-based methods and achieves
superior performance compared to GCN-based methods. The code is available at
https://github.com/aikuniverse/TCTE-Net.
- Abstract(参考訳): 骨格に基づく行動認識は、その効率性と堅牢性から近年人気を集めている。
現在のほとんどの手法はトポロジーモデリングにグラフ畳み込みネットワーク(GCN)を採用しているが、GCNベースの手法は長距離相関モデリングと一般化可能性に限られている。
対照的に、トポロジモデリングのための畳み込みニューラルネットワーク(CNN)の可能性は、十分に検討されていない。
本稿では,新しいCNNアーキテクチャであるTemporal-Channel Topology Enhanced Network (TCTE-Net)を提案し,骨格に基づく行動認識のための空間的および時間的トポロジを学習する。
tcte-netは、最も重要な特徴表現を識別するために、時間的チャネルフォーカスマトリックスを学習する時間的チャネルフォーカスモジュールと、空間的トポロジ的特徴を動的に学習する動的チャネルトポロジアテンションアテンションモジュールの2つのモジュールで構成されている。
我々は,NTU RGB+D,NTU RGB+D 120,FinGymデータセットについて実験を行った。
TCTE-NetはCNNベースの手法と比較して最先端の性能を示し、GCNベースの手法よりも優れた性能を実現する。
コードはhttps://github.com/aikuniverse/TCTE-Netで公開されている。
関連論文リスト
- How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - DG-STGCN: Dynamic Spatial-Temporal Modeling for Skeleton-based Action
Recognition [77.87404524458809]
骨格に基づく行動認識のための新しいフレームワーク,すなわち動的グループ時空間GCN(DG-STGCN)を提案する。
DG-GCNとDG-TCNの2つのモジュールで構成される。
DG-STGCNは最先端の手法よりも一貫して優れており、しばしば顕著な差がある。
論文 参考訳(メタデータ) (2022-10-12T03:17:37Z) - Interference Cancellation GAN Framework for Dynamic Channels [74.22393885274728]
チャネルのあらゆる変更に適応できるオンライントレーニングフレームワークを導入します。
我々のフレームワークは、非常にダイナミックなチャネル上での最近のニューラルネットワークモデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2022-08-17T02:01:18Z) - Skeleton-based Action Recognition via Temporal-Channel Aggregation [5.620303498964992]
空間的・時間的トポロジを学習するために,TCA-CN(Temporal-Channel Aggregation Graph Conal Networks)を提案する。
さらに,マルチスケールの骨格時間モデリングを抽出し,注意機構を備えた事前骨格知識と融合する。
論文 参考訳(メタデータ) (2022-05-31T16:28:30Z) - Topology-aware Convolutional Neural Network for Efficient Skeleton-based
Action Recognition [15.93566875893684]
本稿では,Topology-Aware CNN (Ta-CNN) という純粋CNNアーキテクチャを提案する。
我々は,マップ-アットエンド-グループ-マップ操作の組み合わせである,新しいクロスチャネル機能拡張モジュールを開発した。
特に,マップ-アットエンド-グループ-マップ操作の組み合わせである,新しいクロスチャネル機能拡張モジュールを開発した。
論文 参考訳(メタデータ) (2021-12-08T09:02:50Z) - Channel-wise Topology Refinement Graph Convolution for Skeleton-Based
Action Recognition [40.103229224732196]
本稿では,CTR-GC(Channel-wise Topology Refinement Graph Convolution)を提案する。
本手法では,余分なパラメータをほとんど導入せず,チャネルワイズトポロジのモデル化の難しさを著しく低減する。
我々はCTR-GCNと呼ばれる強力なグラフ畳み込みネットワークを開発し、最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2021-07-26T13:37:50Z) - Overcoming Catastrophic Forgetting in Graph Neural Networks [50.900153089330175]
破滅的な忘れは、ニューラルネットワークが新しいタスクを学ぶ前に学んだ知識を「忘れる」傾向を指します。
本稿では,この問題を克服し,グラフニューラルネットワーク(GNN)における継続学習を強化するための新しいスキームを提案する。
私たちのアプローチの中心には、トポロジ認識重量保存(TWP)と呼ばれる汎用モジュールがあります。
論文 参考訳(メタデータ) (2020-12-10T22:30:25Z) - Spatio-Temporal Inception Graph Convolutional Networks for
Skeleton-Based Action Recognition [126.51241919472356]
我々はスケルトンに基づく行動認識のためのシンプルで高度にモジュール化されたグラフ畳み込みネットワークアーキテクチャを設計する。
ネットワークは,空間的および時間的経路から多粒度情報を集約するビルディングブロックを繰り返すことで構築される。
論文 参考訳(メタデータ) (2020-11-26T14:43:04Z) - On the spatial attention in Spatio-Temporal Graph Convolutional Networks
for skeleton-based human action recognition [97.14064057840089]
カルチャーネットワーク(GCN)は、スケルトンをグラフとしてモデル化することで、スケルトンに基づく人間の行動認識の性能を約束する。
最近提案されたG時間に基づく手法のほとんどは、ネットワークの各層におけるグラフ構造を学習することで、性能を向上させる。
論文 参考訳(メタデータ) (2020-11-07T19:03:04Z) - Dynamic GCN: Context-enriched Topology Learning for Skeleton-based
Action Recognition [40.467040910143616]
本稿では,新しい畳み込みニューラルネットワークであるContextencoding Network(CeN)を導入し,骨格トポロジを自動的に学習する動的GCNを提案する。
CeNは非常に軽量だが効果的であり、グラフ畳み込み層に埋め込むことができる。
動的GCNは、既存のメソッドよりも2時間$4times$少なめのFLOPでパフォーマンスが向上する。
論文 参考訳(メタデータ) (2020-07-29T09:12:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。