論文の概要: Two-person Graph Convolutional Network for Skeleton-based Human
Interaction Recognition
- arxiv url: http://arxiv.org/abs/2208.06174v1
- Date: Fri, 12 Aug 2022 08:50:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-15 12:54:53.089350
- Title: Two-person Graph Convolutional Network for Skeleton-based Human
Interaction Recognition
- Title(参考訳): スケルトンベースヒューマンインタラクション認識のための2人グラフ畳み込みネットワーク
- Authors: Zhengcen Li, Yueran Li, Linlin Tang, Tong Zhang and Jingyong Su
- Abstract要約: グラフ畳み込みネットワーク(GCN)は、骨格に基づく人間の行動認識領域において従来の手法より優れていた。
本稿では,関節間の空間的相互作用の相関を表す新しい2人グラフを提案する。
実験は、提案した2人グラフトポロジを利用する場合、相互作用と個々の動作の両方において精度の向上を示す。
- 参考スコア(独自算出の注目度): 11.650290790796323
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Convolutional Network (GCN) outperforms previous methods in the
skeleton-based human action recognition area, including human-human interaction
recognition task. However, when dealing with interaction sequences, current
GCN-based methods simply split the two-person skeleton into two discrete
sequences and perform graph convolution separately in the manner of
single-person action classification. Such operation ignores rich interactive
information and hinders effective spatial relationship modeling for semantic
pattern learning. To overcome the above shortcoming, we introduce a novel
unified two-person graph representing spatial interaction correlations between
joints. Also, a properly designed graph labeling strategy is proposed to let
our GCN model learn discriminant spatial-temporal interactive features.
Experiments show accuracy improvements in both interactions and individual
actions when utilizing the proposed two-person graph topology. Finally, we
propose a Two-person Graph Convolutional Network (2P-GCN). The proposed 2P-GCN
achieves state-of-the-art results on four benchmarks of three interaction
datasets, SBU, NTU-RGB+D, and NTU-RGB+D 120.
- Abstract(参考訳): グラフ畳み込みネットワーク(GCN)は、ヒトとヒトの相互作用認識タスクを含む骨格に基づく人間の行動認識領域において、従来の手法よりも優れている。
しかし、相互作用配列を扱う場合、現在のGCNベースの手法は、単純に2人の骨格を2つの離散配列に分割し、単独の動作分類の方法でグラフ畳み込みを行う。
このような操作はリッチな対話的情報を無視し、意味的パターン学習のための効果的な空間関係モデリングを妨げる。
上記の欠点を克服するために,ジョイント間の空間的相互作用相関を表す2人称グラフを新たに導入する。
また,GCNモデルが空間的・時間的対話的特徴を識別できるように,適切に設計されたグラフラベリング戦略を提案する。
提案する2人グラフトポロジーを用いた実験では,インタラクションと個人行動の両方において精度が向上した。
最後に,2人グラフ畳み込みネットワーク (2P-GCN) を提案する。
提案した2P-GCNは、SBU、NTU-RGB+D、NTU-RGB+D 120の3つの相互作用データセットの4つのベンチマークで最先端の結果を得る。
関連論文リスト
- Learning Mutual Excitation for Hand-to-Hand and Human-to-Human Interaction Recognition [21.007782102151282]
相互励起グラフ畳み込み層を積み重ねた相互励起グラフ畳み込みネットワーク(me-GCN)を提案する。
Me-GCは各レイヤとグラフ畳み込み操作の各ステージで相互情報を学習する。
提案するme-GCは,最先端GCN法およびTransformer法より優れている。
論文 参考訳(メタデータ) (2024-02-04T10:00:00Z) - DD-GCN: Directed Diffusion Graph Convolutional Network for
Skeleton-based Human Action Recognition [10.115283931959855]
Graphal Networks (GCNs) は骨格に基づく人間の行動認識に広く利用されている。
本稿では,行動モデリングのための指向的拡散を構築し,行動分割戦略を導入する。
また、同期時間意味論を組み込むことも提案する。
論文 参考訳(メタデータ) (2023-08-24T01:53:59Z) - Skeletal Human Action Recognition using Hybrid Attention based Graph
Convolutional Network [3.261599248682793]
相対的距離と相対的角度情報に基づいて局所的注意マップをグローバルに拡張する適応型空間的注意層を提案する。
我々は,頭部,手,足を結ぶ新しい初期グラフ隣接行列を設計し,行動認識精度の点で目に見える改善点を示す。
提案モデルは,日常生活における人間活動の分野における大規模かつ挑戦的な2つのデータセットを用いて評価する。
論文 参考訳(メタデータ) (2022-07-12T12:22:21Z) - Discovering the Representation Bottleneck of Graph Neural Networks from
Multi-order Interactions [51.597480162777074]
グラフニューラルネットワーク(GNN)は、ノード機能を伝搬し、インタラクションを構築するためにメッセージパッシングパラダイムに依存している。
最近の研究は、異なるグラフ学習タスクはノード間の異なる範囲の相互作用を必要とすることを指摘している。
科学領域における2つの共通グラフ構築法、すなわち、emphK-nearest neighbor(KNN)グラフとemphfully-connected(FC)グラフについて検討する。
論文 参考訳(メタデータ) (2022-05-15T11:38:14Z) - Spatio-Temporal Joint Graph Convolutional Networks for Traffic
Forecasting [75.10017445699532]
近年、時間グラフモデリング問題として交通予測の定式化に焦点が移っている。
本稿では,道路網における交通予測の精度向上のための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-11-25T08:45:14Z) - Learning Multi-Granular Spatio-Temporal Graph Network for Skeleton-based
Action Recognition [49.163326827954656]
骨格に基づく行動分類のための新しい多言語時空間グラフネットワークを提案する。
2つの枝の枝からなるデュアルヘッドグラフネットワークを開発し、少なくとも2つの時間分解能を抽出する。
3つの大規模データセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2021-08-10T09:25:07Z) - Multi Scale Temporal Graph Networks For Skeleton-based Action
Recognition [5.970574258839858]
グラフ畳み込みネットワーク(GCN)は、関連するノードの特徴を効果的に捉え、モデルの性能を向上させる。
まず、時間的特徴と空間的特徴の整合性を無視し、特徴をノード単位とフレーム単位で抽出する。
本稿では,行動認識のための時間グラフネットワーク(TGN)と呼ばれる新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-12-05T08:08:25Z) - CatGCN: Graph Convolutional Networks with Categorical Node Features [99.555850712725]
CatGCNはグラフ学習に適したノード機能である。
エンドツーエンドでCatGCNを訓練し、半教師付きノード分類でそれを実証する。
論文 参考訳(メタデータ) (2020-09-11T09:25:17Z) - DRG: Dual Relation Graph for Human-Object Interaction Detection [65.50707710054141]
人-物間相互作用(HOI)検出の課題に対処する。
既存の方法は、人間と物体の対の相互作用を独立に認識するか、複雑な外観に基づく共同推論を行う。
本稿では,抽象的空間意味表現を活用して,各対象対を記述し,二重関係グラフを用いてシーンの文脈情報を集約する。
論文 参考訳(メタデータ) (2020-08-26T17:59:40Z) - A Graph-based Interactive Reasoning for Human-Object Interaction
Detection [71.50535113279551]
本稿では,HOIを推論するインタラクティブグラフ(Interactive Graph, in-Graph)という,グラフに基づくインタラクティブ推論モデルを提案する。
In-GraphNet と呼ばれる HOI を検出するための新しいフレームワークを構築した。
私たちのフレームワークはエンドツーエンドのトレーニングが可能で、人間のポーズのような高価なアノテーションはありません。
論文 参考訳(メタデータ) (2020-07-14T09:29:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。