論文の概要: Progressive Spatio-Temporal Graph Convolutional Network for
Skeleton-Based Human Action Recognition
- arxiv url: http://arxiv.org/abs/2011.05668v2
- Date: Mon, 26 Apr 2021 20:43:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 23:22:48.724845
- Title: Progressive Spatio-Temporal Graph Convolutional Network for
Skeleton-Based Human Action Recognition
- Title(参考訳): スケルトンに基づく人間行動認識のための時空間グラフ畳み込みネットワーク
- Authors: Negar Heidari and Alexandros Iosifidis
- Abstract要約: 本稿では,グラフ畳み込みネットワークのためのコンパクトで問題固有のネットワークを,段階的に自動的に見つける手法を提案する。
骨格に基づく人体行動認識のための2つのデータセットの実験結果から,提案手法は競争力あるいはより優れた分類性能を有することが示された。
- 参考スコア(独自算出の注目度): 97.14064057840089
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph convolutional networks (GCNs) have been very successful in
skeleton-based human action recognition where the sequence of skeletons is
modeled as a graph. However, most of the GCN-based methods in this area train a
deep feed-forward network with a fixed topology that leads to high
computational complexity and restricts their application in low computation
scenarios. In this paper, we propose a method to automatically find a compact
and problem-specific topology for spatio-temporal graph convolutional networks
in a progressive manner. Experimental results on two widely used datasets for
skeleton-based human action recognition indicate that the proposed method has
competitive or even better classification performance compared to the
state-of-the-art methods with much lower computational complexity.
- Abstract(参考訳): グラフ畳み込みネットワーク(GCN)は、骨格の配列をグラフとしてモデル化した骨格に基づく人間の行動認識において、非常に成功した。
しかし、この領域におけるGCNベースの手法のほとんどは、計算複雑性が高く、低計算シナリオでの応用を制限する固定トポロジを持つディープフィードフォワードネットワークを訓練している。
本稿では,時空間グラフ畳み込みネットワークのためのコンパクトかつ問題固有のトポロジを漸進的に発見する手法を提案する。
骨格に基づく人間の行動認識に広く用いられている2つのデータセットの実験結果から,提案手法は計算複雑性がはるかに低い最先端の手法と比較して,競争力や分類性能が優れていることが示された。
関連論文リスト
- Generalization Guarantee of Training Graph Convolutional Networks with
Graph Topology Sampling [83.77955213766896]
グラフ畳み込みネットワーク(GCN)は近年,グラフ構造化データの学習において大きな成功を収めている。
スケーラビリティ問題に対処するため、Gsの学習におけるメモリと計算コストを削減するため、グラフトポロジサンプリングが提案されている。
本稿では,3層GCNのトレーニング(最大)におけるグラフトポロジサンプリングの最初の理論的正当性について述べる。
論文 参考訳(メタデータ) (2022-07-07T21:25:55Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - CCasGNN: Collaborative Cascade Prediction Based on Graph Neural Networks [0.49269463638915806]
カスケード予測は,ネットワーク内の情報拡散をモデル化することを目的とした。
グラフニューラルネットワークとリカレントニューラルネットワークによるネットワーク構造とシーケンス特徴の組み合わせに関する研究
本稿では,個々のプロファイル,構造特徴,シーケンス情報を考慮した新しいCCasGNNを提案する。
論文 参考訳(メタデータ) (2021-12-07T11:37:36Z) - Skeleton-based Hand-Gesture Recognition with Lightweight Graph
Convolutional Networks [14.924672048447338]
グラフ畳み込みネットワーク(GCN)は、グラフのような任意の不規則領域にディープラーニングを拡張することを目的としている。
GCN設計の一環として,入力グラフのトポロジを学習する新しい手法を提案する。
骨格をベースとした手の位置認識の課題に対する実験は, 学習したGCNの高効率性を示す。
論文 参考訳(メタデータ) (2021-04-09T09:06:53Z) - Spatio-Temporal Inception Graph Convolutional Networks for
Skeleton-Based Action Recognition [126.51241919472356]
我々はスケルトンに基づく行動認識のためのシンプルで高度にモジュール化されたグラフ畳み込みネットワークアーキテクチャを設計する。
ネットワークは,空間的および時間的経路から多粒度情報を集約するビルディングブロックを繰り返すことで構築される。
論文 参考訳(メタデータ) (2020-11-26T14:43:04Z) - Temporal Attention-Augmented Graph Convolutional Network for Efficient
Skeleton-Based Human Action Recognition [97.14064057840089]
グラフネットワーク(GCN)はユークリッド以外のデータ構造をモデル化するのに非常に成功した。
ほとんどのGCNベースのアクション認識手法は、計算量の多いディープフィードフォワードネットワークを使用して、全てのスケルトンをアクションで処理する。
本稿では,骨格に基づく行動認識の効率を高めるための時間的アテンションモジュール(TAM)を提案する。
論文 参考訳(メタデータ) (2020-10-23T08:01:55Z) - Progressive Graph Convolutional Networks for Semi-Supervised Node
Classification [97.14064057840089]
グラフ畳み込みネットワークは、半教師付きノード分類のようなグラフベースのタスクに対処することに成功した。
本稿では,コンパクトかつタスク固有のグラフ畳み込みネットワークを自動構築する手法を提案する。
論文 参考訳(メタデータ) (2020-03-27T08:32:16Z) - Shift Aggregate Extract Networks [3.3263205689999453]
大規模グラフの効率的な表現を学習するために,階層分解に基づくアーキテクチャを導入する。
我々のフレームワークは、カーネルメソッドで使用される古典的なR分解を拡張し、ネストした部分関係を可能にする。
我々は,我々のアプローチが,大規模ソーシャルネットワークデータセット上で現在最先端のグラフ分類手法より優れていることを実証的に示す。
論文 参考訳(メタデータ) (2017-03-16T09:52:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。