論文の概要: DD-GCN: Directed Diffusion Graph Convolutional Network for
Skeleton-based Human Action Recognition
- arxiv url: http://arxiv.org/abs/2308.12501v1
- Date: Thu, 24 Aug 2023 01:53:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-25 15:45:23.532423
- Title: DD-GCN: Directed Diffusion Graph Convolutional Network for
Skeleton-based Human Action Recognition
- Title(参考訳): DD-GCN:人行動認識のための拡散グラフ畳み込みネットワーク
- Authors: Chang Li, Qian Huang, Yingchi Mao
- Abstract要約: Graphal Networks (GCNs) は骨格に基づく人間の行動認識に広く利用されている。
本稿では,行動モデリングのための指向的拡散を構築し,行動分割戦略を導入する。
また、同期時間意味論を組み込むことも提案する。
- 参考スコア(独自算出の注目度): 10.115283931959855
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Convolutional Networks (GCNs) have been widely used in skeleton-based
human action recognition. In GCN-based methods, the spatio-temporal graph is
fundamental for capturing motion patterns. However, existing approaches ignore
the physical dependency and synchronized spatio-temporal correlations between
joints, which limits the representation capability of GCNs. To solve these
problems, we construct the directed diffusion graph for action modeling and
introduce the activity partition strategy to optimize the weight sharing
mechanism of graph convolution kernels. In addition, we present the
spatio-temporal synchronization encoder to embed synchronized spatio-temporal
semantics. Finally, we propose Directed Diffusion Graph Convolutional Network
(DD-GCN) for action recognition, and the experiments on three public datasets:
NTU-RGB+D, NTU-RGB+D 120, and NW-UCLA, demonstrate the state-of-the-art
performance of our method.
- Abstract(参考訳): Graph Convolutional Networks (GCNs) は骨格に基づく人間の行動認識に広く利用されている。
GCNに基づく手法では、時空間グラフは運動パターンのキャプチャに基本となる。
しかしながら、既存のアプローチでは物理的依存性を無視し、gcnsの表現能力を制限するジョイント間の時空間相関を同期化している。
これらの問題を解決するために,行動モデリングのための有向拡散グラフを構築し,グラフ畳み込み核の重み付け機構を最適化するアクティビティ分割戦略を導入する。
さらに,時空間同期エンコーダを用いて時空間セマンティクスを組込む手法を提案する。
最後に,行動認識のためのダイレクト拡散グラフ畳み込みネットワーク(DD-GCN)を提案し,NTU-RGB+D,NTU-RGB+D 120,NW-UCLAの3つの公開データセットの実験を行った。
関連論文リスト
- Dynamic Dense Graph Convolutional Network for Skeleton-based Human
Motion Prediction [14.825185477750479]
本稿では,高密度グラフを構築し,動的メッセージパッシングを実装した動的Dense Graph Convolutional Network (DD-GCN)を提案する。
そこで本研究では,データから動的に学習し,ユニークなメッセージを生成する動的メッセージパッシングフレームワークを提案する。
ベンチマークによるHuman 3.6MとCMU Mocapデータセットの実験は、DD-GCNの有効性を検証する。
論文 参考訳(メタデータ) (2023-11-29T07:25:49Z) - DG-STGCN: Dynamic Spatial-Temporal Modeling for Skeleton-based Action
Recognition [77.87404524458809]
骨格に基づく行動認識のための新しいフレームワーク,すなわち動的グループ時空間GCN(DG-STGCN)を提案する。
DG-GCNとDG-TCNの2つのモジュールで構成される。
DG-STGCNは最先端の手法よりも一貫して優れており、しばしば顕著な差がある。
論文 参考訳(メタデータ) (2022-10-12T03:17:37Z) - Two-person Graph Convolutional Network for Skeleton-based Human
Interaction Recognition [11.650290790796323]
グラフ畳み込みネットワーク(GCN)は、骨格に基づく人間の行動認識領域において従来の手法より優れていた。
本稿では,関節間の空間的相互作用の相関を表す新しい2人グラフを提案する。
実験は、提案した2人グラフトポロジを利用する場合、相互作用と個々の動作の両方において精度の向上を示す。
論文 参考訳(メタデータ) (2022-08-12T08:50:15Z) - SpatioTemporal Focus for Skeleton-based Action Recognition [66.8571926307011]
グラフ畳み込みネットワーク(GCN)は骨格に基づく行動認識において広く採用されている。
近年提案されている骨格に基づく行動認識法の性能は以下の要因によって制限されていると論じる。
近年の注目機構に着想を得て,アクション関連関係情報を取得するためのマルチグラインド・コンテキスト集中モジュール MCF を提案する。
論文 参考訳(メタデータ) (2022-03-31T02:45:24Z) - Spatio-Temporal Joint Graph Convolutional Networks for Traffic
Forecasting [75.10017445699532]
近年、時間グラフモデリング問題として交通予測の定式化に焦点が移っている。
本稿では,道路網における交通予測の精度向上のための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-11-25T08:45:14Z) - Learning Multi-Granular Spatio-Temporal Graph Network for Skeleton-based
Action Recognition [49.163326827954656]
骨格に基づく行動分類のための新しい多言語時空間グラフネットワークを提案する。
2つの枝の枝からなるデュアルヘッドグラフネットワークを開発し、少なくとも2つの時間分解能を抽出する。
3つの大規模データセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2021-08-10T09:25:07Z) - Multi Scale Temporal Graph Networks For Skeleton-based Action
Recognition [5.970574258839858]
グラフ畳み込みネットワーク(GCN)は、関連するノードの特徴を効果的に捉え、モデルの性能を向上させる。
まず、時間的特徴と空間的特徴の整合性を無視し、特徴をノード単位とフレーム単位で抽出する。
本稿では,行動認識のための時間グラフネットワーク(TGN)と呼ばれる新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-12-05T08:08:25Z) - On the spatial attention in Spatio-Temporal Graph Convolutional Networks
for skeleton-based human action recognition [97.14064057840089]
カルチャーネットワーク(GCN)は、スケルトンをグラフとしてモデル化することで、スケルトンに基づく人間の行動認識の性能を約束する。
最近提案されたG時間に基づく手法のほとんどは、ネットワークの各層におけるグラフ構造を学習することで、性能を向上させる。
論文 参考訳(メタデータ) (2020-11-07T19:03:04Z) - Disentangling and Unifying Graph Convolutions for Skeleton-Based Action
Recognition [79.33539539956186]
本稿では,マルチスケールグラフ畳み込みと,G3Dという空間時間グラフ畳み込み演算子を結合する簡単な方法を提案する。
これらの提案を結合することにより,MS-G3Dという強力な特徴抽出器を開発し,そのモデルが3つの大規模データセット上で従来の最先端手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-03-31T11:28:25Z) - Feedback Graph Convolutional Network for Skeleton-based Action
Recognition [38.782491442635205]
フィードバックグラフ畳み込みネットワーク(FGCN)という新しいネットワークを提案する。
これは、GCNとアクション認識にフィードバックメカニズムを導入する最初の作業である。
3つのデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-03-17T07:20:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。