論文の概要: Dynamic Spatial-temporal Hypergraph Convolutional Network for
Skeleton-based Action Recognition
- arxiv url: http://arxiv.org/abs/2302.08689v1
- Date: Fri, 17 Feb 2023 04:42:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-20 15:48:14.606619
- Title: Dynamic Spatial-temporal Hypergraph Convolutional Network for
Skeleton-based Action Recognition
- Title(参考訳): 骨格に基づく行動認識のための動的時空間ハイパーグラフ畳み込みネットワーク
- Authors: Shengqin Wang, Yongji Zhang, Hong Qi, Minghao Zhao, Yu Jiang
- Abstract要約: 骨格に基づく行動認識は空間的時間的トポロジ情報の抽出に依存する。
本稿では,骨格型行動認識のための動的時空間ハイパーグラフ畳み込みネットワーク(DST-HCN)を提案する。
- 参考スコア(独自算出の注目度): 4.738525281379023
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Skeleton-based action recognition relies on the extraction of
spatial-temporal topological information. Hypergraphs can establish prior
unnatural dependencies for the skeleton. However, the existing methods only
focus on the construction of spatial topology and ignore the time-point
dependence. This paper proposes a dynamic spatial-temporal hypergraph
convolutional network (DST-HCN) to capture spatial-temporal information for
skeleton-based action recognition. DST-HCN introduces a time-point hypergraph
(TPH) to learn relationships at time points. With multiple spatial static
hypergraphs and dynamic TPH, our network can learn more complete
spatial-temporal features. In addition, we use the high-order information
fusion module (HIF) to fuse spatial-temporal information synchronously.
Extensive experiments on NTU RGB+D, NTU RGB+D 120, and NW-UCLA datasets show
that our model achieves state-of-the-art, especially compared with hypergraph
methods.
- Abstract(参考訳): 骨格に基づく行動認識は時空間位相情報の抽出に依存する。
ハイパーグラフは、骨格の以前の非自然な依存関係を確立することができる。
しかし,既存の手法は空間トポロジの構築にのみ焦点をあて,時間的依存を無視する。
本稿では,スケルトンベース行動認識のための空間-時間情報を取り込む動的空間-時間的ハイパーグラフ畳み込みネットワーク(dst-hcn)を提案する。
DST-HCNは、タイムポイントで関係を学ぶためのTPH(Time-point Hypergraph)を導入する。
複数の静的ハイパーグラフと動的TPHにより、我々のネットワークはより完全な時空間特徴を学習できる。
さらに,高次情報融合モジュール(HIF)を用いて時空間情報を同期的に融合する。
NTU RGB+D, NTU RGB+D 120, NW-UCLAデータセットの大規模な実験により, ハイパーグラフ法と比較して, 我々のモデルが最先端の手法を実現することが示された。
関連論文リスト
- TPP-Gaze: Modelling Gaze Dynamics in Space and Time with Neural Temporal Point Processes [63.95928298690001]
ニューラル・テンポラル・ポイント・プロセス(TPP)に基づく新規かつ原則化されたスキャンパスダイナミクスのアプローチであるTPP-Gazeを提案する。
提案手法は,最先端手法と比較して総合的に優れた性能を示す。
論文 参考訳(メタデータ) (2024-10-30T19:22:38Z) - Multi-Scale Spatial-Temporal Self-Attention Graph Convolutional Networks for Skeleton-based Action Recognition [0.0]
本稿では,マルチスケール空間時間自己注意(MSST)-GCNという自己注意型GCNハイブリッドモデルを提案する。
適応トポロジを持つ空間自己保持モジュールを用いて、異なる身体部分間のフレーム内相互作用を理解するとともに、時間的自己保持モジュールを用いてノードのフレーム間の相関関係を調べる。
論文 参考訳(メタデータ) (2024-04-03T10:25:45Z) - Exploiting Spatial-temporal Data for Sleep Stage Classification via
Hypergraph Learning [16.802013781690402]
睡眠段階分類のための時空間データをエンコードするハイパーグラフを導入した動的学習フレームワークSTHLを提案する。
提案したSTHLは睡眠段階分類タスクにおける最先端モデルよりも優れる。
論文 参考訳(メタデータ) (2023-09-05T11:01:30Z) - Spatio-Temporal Branching for Motion Prediction using Motion Increments [55.68088298632865]
HMP(Human Motion Prediction)はその多種多様な応用により、人気のある研究トピックとして浮上している。
従来の手法は手作りの機能と機械学習技術に依存している。
HMPのためのインクリメンタル情報を用いた時空間分岐ネットワークを提案する。
論文 参考訳(メタデータ) (2023-08-02T12:04:28Z) - An Adaptive Federated Relevance Framework for Spatial Temporal Graph
Learning [14.353798949041698]
本稿では,空間時間グラフ学習のための適応型フェデレーション関連フレームワークであるFedRelを提案する。
フレームワークのコアとなるDynamic Inter-Intra Graph (DIIG)モジュールは、これらの機能を使用して空間時間グラフを生成することができる。
局所的なデータプライバシーを維持しながらモデルの一般化能力と性能を向上させるため、関連性駆動型フェデレーション学習モジュールを設計する。
論文 参考訳(メタデータ) (2022-06-07T16:12:17Z) - Skeleton-based Action Recognition via Temporal-Channel Aggregation [5.620303498964992]
空間的・時間的トポロジを学習するために,TCA-CN(Temporal-Channel Aggregation Graph Conal Networks)を提案する。
さらに,マルチスケールの骨格時間モデリングを抽出し,注意機構を備えた事前骨格知識と融合する。
論文 参考訳(メタデータ) (2022-05-31T16:28:30Z) - Spatial-Temporal Correlation and Topology Learning for Person
Re-Identification in Videos [78.45050529204701]
クロススケール空間時空間相関をモデル化し, 識別的, 堅牢な表現を追求する新しい枠組みを提案する。
CTLはCNNバックボーンとキーポイント推定器を使用して人体から意味的局所的特徴を抽出する。
グローバルな文脈情報と人体の物理的接続の両方を考慮して、多スケールグラフを構築するためのコンテキスト強化トポロジーを探求する。
論文 参考訳(メタデータ) (2021-04-15T14:32:12Z) - Temporal Graph Modeling for Skeleton-based Action Recognition [25.788239844759246]
複雑な時間的ダイナミクスを捉えるための時間拡張グラフ畳み込みネットワーク(TE-GCN)を提案する。
構築された時間関係グラフは、意味的に関連する時間的特徴間の接続を明示的に構築する。
2つの大規模データセットで実験を行う。
論文 参考訳(メタデータ) (2020-12-16T09:02:47Z) - DS-Net: Dynamic Spatiotemporal Network for Video Salient Object
Detection [78.04869214450963]
時間情報と空間情報のより効果的な融合のための新しい動的時空間ネットワーク(DSNet)を提案する。
提案手法は最先端アルゴリズムよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-12-09T06:42:30Z) - On the spatial attention in Spatio-Temporal Graph Convolutional Networks
for skeleton-based human action recognition [97.14064057840089]
カルチャーネットワーク(GCN)は、スケルトンをグラフとしてモデル化することで、スケルトンに基づく人間の行動認識の性能を約束する。
最近提案されたG時間に基づく手法のほとんどは、ネットワークの各層におけるグラフ構造を学習することで、性能を向上させる。
論文 参考訳(メタデータ) (2020-11-07T19:03:04Z) - Disentangling and Unifying Graph Convolutions for Skeleton-Based Action
Recognition [79.33539539956186]
本稿では,マルチスケールグラフ畳み込みと,G3Dという空間時間グラフ畳み込み演算子を結合する簡単な方法を提案する。
これらの提案を結合することにより,MS-G3Dという強力な特徴抽出器を開発し,そのモデルが3つの大規模データセット上で従来の最先端手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-03-31T11:28:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。