論文の概要: Dynamic Hypergraph Convolutional Networks for Skeleton-Based Action
Recognition
- arxiv url: http://arxiv.org/abs/2112.10570v1
- Date: Mon, 20 Dec 2021 14:46:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-21 17:24:03.525567
- Title: Dynamic Hypergraph Convolutional Networks for Skeleton-Based Action
Recognition
- Title(参考訳): スケルトンに基づく行動認識のための動的ハイパーグラフ畳み込みネットワーク
- Authors: Jinfeng Wei, Yunxin Wang, Mengli Guo, Pei Lv, Xiaoshan Yang, Mingliang
Xu
- Abstract要約: 骨格に基づく行動認識のための動的ハイパーグラフ畳み込みネットワーク(DHGCN)を提案する。
DHGCNはハイパーグラフを使用して骨格構造を表現し、ヒト関節に含まれる運動情報を効果的に活用する。
- 参考スコア(独自算出の注目度): 22.188135882864287
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Graph convolutional networks (GCNs) based methods have achieved advanced
performance on skeleton-based action recognition task. However, the skeleton
graph cannot fully represent the motion information contained in skeleton data.
In addition, the topology of the skeleton graph in the GCN-based methods is
manually set according to natural connections, and it is fixed for all samples,
which cannot well adapt to different situations. In this work, we propose a
novel dynamic hypergraph convolutional networks (DHGCN) for skeleton-based
action recognition. DHGCN uses hypergraph to represent the skeleton structure
to effectively exploit the motion information contained in human joints. Each
joint in the skeleton hypergraph is dynamically assigned the corresponding
weight according to its moving, and the hypergraph topology in our model can be
dynamically adjusted to different samples according to the relationship between
the joints. Experimental results demonstrate that the performance of our model
achieves competitive performance on three datasets: Kinetics-Skeleton 400, NTU
RGB+D 60, and NTU RGB+D 120.
- Abstract(参考訳): グラフ畳み込みネットワーク(GCN)に基づく手法は骨格に基づく行動認識タスクにおいて高度な性能を達成している。
しかし、骨格グラフは骨格データに含まれる運動情報を完全に表現することはできない。
さらに、gcnベースの方法におけるスケルトングラフのトポロジーは自然接続に従って手動で設定され、異なる状況にうまく適応できない全てのサンプルに対して固定される。
本研究では,骨格に基づく行動認識のための動的ハイパーグラフ畳み込みネットワーク(DHGCN)を提案する。
DHGCNはハイパーグラフを使用して骨格構造を表現し、ヒト関節に含まれる運動情報を効果的に活用する。
骨格ハイパーグラフの各関節はその移動に応じて対応する重量を動的に割り当て、我々のモデルにおけるハイパーグラフトポロジーは関節間の関係に応じて異なるサンプルに動的に調整することができる。
実験の結果,このモデルの性能は,Kineetics-Skeleton 400,NTU RGB+D 60,NTU RGB+D 120の3つのデータセット上での競合性能を示すことがわかった。
関連論文リスト
- Dynamic Dense Graph Convolutional Network for Skeleton-based Human
Motion Prediction [14.825185477750479]
本稿では,高密度グラフを構築し,動的メッセージパッシングを実装した動的Dense Graph Convolutional Network (DD-GCN)を提案する。
そこで本研究では,データから動的に学習し,ユニークなメッセージを生成する動的メッセージパッシングフレームワークを提案する。
ベンチマークによるHuman 3.6MとCMU Mocapデータセットの実験は、DD-GCNの有効性を検証する。
論文 参考訳(メタデータ) (2023-11-29T07:25:49Z) - SkeletonMAE: Graph-based Masked Autoencoder for Skeleton Sequence
Pre-training [110.55093254677638]
我々はSkeleton Sequence Learning(SSL)という,効率的なスケルトンシーケンス学習フレームワークを提案する。
本論文では,SkeletonMAEという非対称なグラフベースのエンコーダデコーダ事前学習アーキテクチャを構築する。
我々のSSLは、さまざまなデータセットにまたがってうまく一般化し、最先端の自己教師型スケルトンベースのアクション認識手法よりも優れています。
論文 参考訳(メタデータ) (2023-07-17T13:33:11Z) - Graph Contrastive Learning for Skeleton-based Action Recognition [85.86820157810213]
骨格に基づく行動認識のためのグラフコントラスト学習フレームワークを提案する。
SkeletonGCLは、グラフをクラス識別に強制することで、シーケンス間のグラフ学習を関連付ける。
SkeletonGCLは新しいトレーニングパラダイムを確立し、現在のグラフ畳み込みネットワークにシームレスに組み込むことができる。
論文 参考訳(メタデータ) (2023-01-26T02:09:16Z) - Pose-Guided Graph Convolutional Networks for Skeleton-Based Action
Recognition [32.07659338674024]
グラフ畳み込みネットワーク(GCN)は、人体骨格を空間的および時間的グラフとしてモデル化することができる。
本研究では,高性能な人行動認識のためのマルチモーダルフレームワークとして,ポーズ誘導型GCN(PG-GCN)を提案する。
このモジュールの中核となる考え方は、トレーニング可能なグラフを使用して、スケルトンストリームから、ポーズストリームの機能を集約することで、より堅牢な機能表現能力を持つネットワークを実現することだ。
論文 参考訳(メタデータ) (2022-10-10T02:08:49Z) - Representing Videos as Discriminative Sub-graphs for Action Recognition [165.54738402505194]
ビデオ中の各アクションの識別パターンを表現およびエンコードするためのサブグラフの新たな設計を提案する。
時空グラフとクラスタを各スケールでコンパクトなサブグラフに新たに構築するMUlti-scale Sub-Earn Ling (MUSLE) フレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-11T16:15:25Z) - Learning Multi-Granular Spatio-Temporal Graph Network for Skeleton-based
Action Recognition [49.163326827954656]
骨格に基づく行動分類のための新しい多言語時空間グラフネットワークを提案する。
2つの枝の枝からなるデュアルヘッドグラフネットワークを開発し、少なくとも2つの時間分解能を抽出する。
3つの大規模データセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2021-08-10T09:25:07Z) - JOLO-GCN: Mining Joint-Centered Light-Weight Information for
Skeleton-Based Action Recognition [47.47099206295254]
本稿では,2ストリームグラフ畳み込みネットワークにおいて,人間のポーズスケルトンと共同中心の軽量情報を活用するための新しいフレームワークを提案する。
純粋なスケルトンベースのベースラインと比較して、このハイブリッドスキームは、計算とメモリのオーバーヘッドを低く保ちながら、性能を効果的に向上させる。
論文 参考訳(メタデータ) (2020-11-16T08:39:22Z) - Skeleton-based Action Recognition via Spatial and Temporal Transformer
Networks [12.06555892772049]
本研究では,トランスフォーマーの自己アテンション演算子を用いて,関節間の依存関係をモデル化する空間-テンポラルトランスフォーマーネットワークを提案する。
提案したST-TRは,関節座標を入力として使用する場合のすべてのデータセットの最先端性能を達成し,骨情報を追加する場合の最先端特性と一致させる。
論文 参考訳(メタデータ) (2020-08-17T15:25:40Z) - Mix Dimension in Poincar\'{e} Geometry for 3D Skeleton-based Action
Recognition [57.98278794950759]
グラフ畳み込みネットワーク(GCN)はすでに、不規則なデータをモデル化する強力な能力を実証している。
本稿では,ポアンカー幾何学を用いて定義した空間時空間GCNアーキテクチャを提案する。
提案手法を,現在最大規模の2つの3次元データセット上で評価する。
論文 参考訳(メタデータ) (2020-07-30T18:23:18Z) - Dynamic GCN: Context-enriched Topology Learning for Skeleton-based
Action Recognition [40.467040910143616]
本稿では,新しい畳み込みニューラルネットワークであるContextencoding Network(CeN)を導入し,骨格トポロジを自動的に学習する動的GCNを提案する。
CeNは非常に軽量だが効果的であり、グラフ畳み込み層に埋め込むことができる。
動的GCNは、既存のメソッドよりも2時間$4times$少なめのFLOPでパフォーマンスが向上する。
論文 参考訳(メタデータ) (2020-07-29T09:12:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。