論文の概要: Disentangling and Unifying Graph Convolutions for Skeleton-Based Action
Recognition
- arxiv url: http://arxiv.org/abs/2003.14111v2
- Date: Tue, 19 May 2020 07:04:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 01:25:01.751967
- Title: Disentangling and Unifying Graph Convolutions for Skeleton-Based Action
Recognition
- Title(参考訳): スケルトンに基づく行動認識のためのグラフ畳み込みと統一化
- Authors: Ziyu Liu, Hongwen Zhang, Zhenghao Chen, Zhiyong Wang, Wanli Ouyang
- Abstract要約: 本稿では,マルチスケールグラフ畳み込みと,G3Dという空間時間グラフ畳み込み演算子を結合する簡単な方法を提案する。
これらの提案を結合することにより,MS-G3Dという強力な特徴抽出器を開発し,そのモデルが3つの大規模データセット上で従来の最先端手法より優れていることを示す。
- 参考スコア(独自算出の注目度): 79.33539539956186
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spatial-temporal graphs have been widely used by skeleton-based action
recognition algorithms to model human action dynamics. To capture robust
movement patterns from these graphs, long-range and multi-scale context
aggregation and spatial-temporal dependency modeling are critical aspects of a
powerful feature extractor. However, existing methods have limitations in
achieving (1) unbiased long-range joint relationship modeling under multi-scale
operators and (2) unobstructed cross-spacetime information flow for capturing
complex spatial-temporal dependencies. In this work, we present (1) a simple
method to disentangle multi-scale graph convolutions and (2) a unified
spatial-temporal graph convolutional operator named G3D. The proposed
multi-scale aggregation scheme disentangles the importance of nodes in
different neighborhoods for effective long-range modeling. The proposed G3D
module leverages dense cross-spacetime edges as skip connections for direct
information propagation across the spatial-temporal graph. By coupling these
proposals, we develop a powerful feature extractor named MS-G3D based on which
our model outperforms previous state-of-the-art methods on three large-scale
datasets: NTU RGB+D 60, NTU RGB+D 120, and Kinetics Skeleton 400.
- Abstract(参考訳): 時空間グラフは骨格に基づく行動認識アルゴリズムによって人間の行動力学をモデル化するために広く利用されている。
これらのグラフからロバストな動きパターンを捉えるために、長距離およびマルチスケールのコンテキストアグリゲーションと時空間依存モデリングが強力な特徴抽出器の重要な側面である。
しかし,既存の手法では,(1)マルチスケール演算子の下での非バイアスな長距離連接関係モデリング,(2)複雑な時空間依存を捉えるための非障害物な時空間情報フローの実現に限界がある。
本稿では,(1)多スケールグラフ畳み込みを解消するための簡易な方法,(2)空間-時空間グラフ畳み込み演算子g3dを提案する。
提案するマルチスケールアグリゲーションスキームは,実効的長距離モデリングにおいて異なる近傍のノードの重要性を解消する。
提案したG3Dモジュールは、空間時間グラフを横断する直接情報伝達のためのスキップ接続として、高密度な時空間エッジを利用する。
これらの提案を結合することにより,NTU RGB+D 60, NTU RGB+D 120, Kinetics Skeleton 400の3つの大規模データセット上で, 従来の最先端手法よりも優れた特徴抽出器MS-G3Dを開発した。
関連論文リスト
- Multi-Scale Spatial-Temporal Self-Attention Graph Convolutional Networks for Skeleton-based Action Recognition [0.0]
本稿では,マルチスケール空間時間自己注意(MSST)-GCNという自己注意型GCNハイブリッドモデルを提案する。
適応トポロジを持つ空間自己保持モジュールを用いて、異なる身体部分間のフレーム内相互作用を理解するとともに、時間的自己保持モジュールを用いてノードのフレーム間の相関関係を調べる。
論文 参考訳(メタデータ) (2024-04-03T10:25:45Z) - Spatial Temporal Graph Attention Network for Skeleton-Based Action
Recognition [10.60209288486904]
骨格に基づく行動認識の現在の手法では、主に長期の時間的依存関係のキャプチャを検討するのが一般的である。
本稿では,時空情報の流れをモデル化する汎用フレームワークSTGATを提案する。
STGATは3つの大規模データセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-08-18T02:34:46Z) - Multi-Scale Spatial Temporal Graph Convolutional Network for
Skeleton-Based Action Recognition [13.15374205970988]
本稿では,マルチスケール空間グラフ畳み込み (MS-GC) モジュールとマルチスケール時間グラフ畳み込み (MT-GC) モジュールを提案する。
MS-GCおよびMT-GCモジュールは対応する局所グラフ畳み込みをサブグラフ畳み込みの集合に分解し、階層的残差アーキテクチャを形成する。
本稿では,マルチスケールな時空間グラフ畳み込みネットワーク(MST-GCN)を提案する。
論文 参考訳(メタデータ) (2022-06-27T03:17:33Z) - Multivariate Time Series Forecasting with Dynamic Graph Neural ODEs [65.18780403244178]
動的グラフニューラル正規微分方程式(MTGODE)を用いた多変量時系列予測連続モデルを提案する。
具体的には、まず、時間進化するノードの特徴と未知のグラフ構造を持つ動的グラフに多変量時系列を抽象化する。
そして、欠落したグラフトポロジを補完し、空間的および時間的メッセージパッシングを統一するために、ニューラルODEを設計、解決する。
論文 参考訳(メタデータ) (2022-02-17T02:17:31Z) - Decoupling and Recoupling Spatiotemporal Representation for RGB-D-based
Motion Recognition [62.46544616232238]
従来の動作認識手法は、密結合した多時間表現によって有望な性能を実現している。
本稿では,RGB-D に基づく動作認識において引き起こされた表現を分離し,再分離することを提案する。
論文 参考訳(メタデータ) (2021-12-16T18:59:47Z) - Learning Multi-Granular Spatio-Temporal Graph Network for Skeleton-based
Action Recognition [49.163326827954656]
骨格に基づく行動分類のための新しい多言語時空間グラフネットワークを提案する。
2つの枝の枝からなるデュアルヘッドグラフネットワークを開発し、少なくとも2つの時間分解能を抽出する。
3つの大規模データセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2021-08-10T09:25:07Z) - Spatial-Temporal Correlation and Topology Learning for Person
Re-Identification in Videos [78.45050529204701]
クロススケール空間時空間相関をモデル化し, 識別的, 堅牢な表現を追求する新しい枠組みを提案する。
CTLはCNNバックボーンとキーポイント推定器を使用して人体から意味的局所的特徴を抽出する。
グローバルな文脈情報と人体の物理的接続の両方を考慮して、多スケールグラフを構築するためのコンテキスト強化トポロジーを探求する。
論文 参考訳(メタデータ) (2021-04-15T14:32:12Z) - Temporal Graph Modeling for Skeleton-based Action Recognition [25.788239844759246]
複雑な時間的ダイナミクスを捉えるための時間拡張グラフ畳み込みネットワーク(TE-GCN)を提案する。
構築された時間関係グラフは、意味的に関連する時間的特徴間の接続を明示的に構築する。
2つの大規模データセットで実験を行う。
論文 参考訳(メタデータ) (2020-12-16T09:02:47Z) - Mix Dimension in Poincar\'{e} Geometry for 3D Skeleton-based Action
Recognition [57.98278794950759]
グラフ畳み込みネットワーク(GCN)はすでに、不規則なデータをモデル化する強力な能力を実証している。
本稿では,ポアンカー幾何学を用いて定義した空間時空間GCNアーキテクチャを提案する。
提案手法を,現在最大規模の2つの3次元データセット上で評価する。
論文 参考訳(メタデータ) (2020-07-30T18:23:18Z) - Temporal Extension Module for Skeleton-Based Action Recognition [0.0]
本稿では,グラフ畳み込みネットワーク(GCN)の時間グラフを拡張するモジュールについて述べる。
我々のモジュールは、人間の運動における複数の関節の相関特徴を抽出するための、シンプルで効果的な方法である。
論文 参考訳(メタデータ) (2020-03-19T18:00:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。