論文の概要: Extended multi-stream temporal-attention module for skeleton-based human action recognition (HAR)
- arxiv url: http://arxiv.org/abs/2411.06553v1
- Date: Sun, 10 Nov 2024 18:28:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 14:09:18.975156
- Title: Extended multi-stream temporal-attention module for skeleton-based human action recognition (HAR)
- Title(参考訳): 骨格型ヒト行動認識(HAR)のための拡張マルチストリーム時間アテンションモジュール
- Authors: Faisal Mehmood, Xin Guo, Enqing Chen, Muhammad Azeem Akbar, Arif Ali Khan, Sami Ullah,
- Abstract要約: グラフ畳み込みネットワーク(GCN)は、効率的な骨格に基づくヒト行動認識(HAR)技術である。
GCNは、よりフレキシブルな非ユークリッドフレームへのCNNの仕様を可能にする。
- 参考スコア(独自算出の注目度): 4.822426770727152
- License:
- Abstract: Graph convolutional networks (GCNs) are an effective skeleton-based human action recognition (HAR) technique. GCNs enable the specification of CNNs to a non-Euclidean frame that is more flexible. The previous GCN-based models still have a lot of issues: (I) The graph structure is the same for all model layers and input data.
- Abstract(参考訳): グラフ畳み込みネットワーク(GCN)は、効率的な骨格に基づくヒト行動認識(HAR)技術である。
GCNは、よりフレキシブルな非ユークリッドフレームへのCNNの仕様を可能にする。
グラフ構造は、すべてのモデル層と入力データに対して同じです。
関連論文リスト
- Temporal-Channel Topology Enhanced Network for Skeleton-Based Action
Recognition [26.609509266693077]
骨格に基づく行動認識のための空間的トポロジと時間的トポロジを学習するための新しいCNNアーキテクチャTCTE-Netを提案する。
TCTE-Netは、CNNベースの手法と比較して最先端の性能を示し、GCNベースの手法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2023-02-25T03:09:07Z) - DG-STGCN: Dynamic Spatial-Temporal Modeling for Skeleton-based Action
Recognition [77.87404524458809]
骨格に基づく行動認識のための新しいフレームワーク,すなわち動的グループ時空間GCN(DG-STGCN)を提案する。
DG-GCNとDG-TCNの2つのモジュールで構成される。
DG-STGCNは最先端の手法よりも一貫して優れており、しばしば顕著な差がある。
論文 参考訳(メタデータ) (2022-10-12T03:17:37Z) - Pose-Guided Graph Convolutional Networks for Skeleton-Based Action
Recognition [32.07659338674024]
グラフ畳み込みネットワーク(GCN)は、人体骨格を空間的および時間的グラフとしてモデル化することができる。
本研究では,高性能な人行動認識のためのマルチモーダルフレームワークとして,ポーズ誘導型GCN(PG-GCN)を提案する。
このモジュールの中核となる考え方は、トレーニング可能なグラフを使用して、スケルトンストリームから、ポーズストリームの機能を集約することで、より堅牢な機能表現能力を持つネットワークを実現することだ。
論文 参考訳(メタデータ) (2022-10-10T02:08:49Z) - Skeleton-based Action Recognition via Adaptive Cross-Form Learning [75.92422282666767]
スケルトンをベースとした行動認識は、骨格配列をアクションカテゴリに投影することを目的としており、配列は事前に検出された複数の点から導出される。
既存の方法は、相補的なキューのために多形骨格を活用することでGCNを改善する傾向にある。
本稿では,適応型クロスフォーム学習(ACFL)を提案する。
論文 参考訳(メタデータ) (2022-06-30T07:40:03Z) - Topology-aware Convolutional Neural Network for Efficient Skeleton-based
Action Recognition [15.93566875893684]
本稿では,Topology-Aware CNN (Ta-CNN) という純粋CNNアーキテクチャを提案する。
我々は,マップ-アットエンド-グループ-マップ操作の組み合わせである,新しいクロスチャネル機能拡張モジュールを開発した。
特に,マップ-アットエンド-グループ-マップ操作の組み合わせである,新しいクロスチャネル機能拡張モジュールを開発した。
論文 参考訳(メタデータ) (2021-12-08T09:02:50Z) - Spatio-Temporal Inception Graph Convolutional Networks for
Skeleton-Based Action Recognition [126.51241919472356]
我々はスケルトンに基づく行動認識のためのシンプルで高度にモジュール化されたグラフ畳み込みネットワークアーキテクチャを設計する。
ネットワークは,空間的および時間的経路から多粒度情報を集約するビルディングブロックを繰り返すことで構築される。
論文 参考訳(メタデータ) (2020-11-26T14:43:04Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Dynamic GCN: Context-enriched Topology Learning for Skeleton-based
Action Recognition [40.467040910143616]
本稿では,新しい畳み込みニューラルネットワークであるContextencoding Network(CeN)を導入し,骨格トポロジを自動的に学習する動的GCNを提案する。
CeNは非常に軽量だが効果的であり、グラフ畳み込み層に埋め込むことができる。
動的GCNは、既存のメソッドよりも2時間$4times$少なめのFLOPでパフォーマンスが向上する。
論文 参考訳(メタデータ) (2020-07-29T09:12:06Z) - Simple and Deep Graph Convolutional Networks [63.76221532439285]
グラフ畳み込みネットワーク(GCN)は、グラフ構造化データに対する強力なディープラーニングアプローチである。
その成功にもかかわらず、現在のGCNモデルは、エムの過度に滑らかな問題のため、ほとんどが浅くなっている。
本稿では,2つの単純かつ効果的な手法を用いて,バニラGCNモデルを拡張したGCNIIを提案する。
論文 参考訳(メタデータ) (2020-07-04T16:18:06Z) - Structure-Aware Human-Action Generation [126.05874420893092]
グラフ畳み込みネットワーク(GCN)は構造情報を利用して構造表現を学習する有望な方法である。
本稿では, 時間空間における完全な行動グラフを適応的にスパース化するために, 強力な自己認識機構を活用するためのGCNの変種を提案する。
提案手法は,重要な過去のフレームに動的に対応し,GCNフレームワークに適用するためのスパースグラフを構築し,その構造情報をアクションシーケンスで適切にキャプチャする。
論文 参考訳(メタデータ) (2020-07-04T00:18:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。