論文の概要: High-Performance Inference Graph Convolutional Networks for
Skeleton-Based Action Recognition
- arxiv url: http://arxiv.org/abs/2305.18710v1
- Date: Tue, 30 May 2023 03:30:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-31 18:39:34.045487
- Title: High-Performance Inference Graph Convolutional Networks for
Skeleton-Based Action Recognition
- Title(参考訳): スケルトンに基づく行動認識のための高性能推論グラフ畳み込みネットワーク
- Authors: Ziao Li, Junyi Wang, Guhong Nie
- Abstract要約: 骨格に基づく人間の行動認識のための2つの新しいグラフ畳み込みネットワーク(GCN)を提案する。
HPI-GCN-RPとHPI-GCN-OPは、競合モデルの性能で高い推論速度を達成する。
その結果,HPI-GCN-OPは同じ精度でHD-GCNの4.5倍高速であることがわかった。
- 参考スコア(独自算出の注目度): 5.414308305392762
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, significant achievements have been made in skeleton-based human
action recognition with the emergence of graph convolutional networks (GCNs).
However, the state-of-the-art (SOTA) models used for this task focus on
constructing more complex higher-order connections between joint nodes to
describe skeleton information, which leads to complex inference processes and
high computational costs, resulting in reduced model's practicality. To address
the slow inference speed caused by overly complex model structures, we
introduce re-parameterization and over-parameterization techniques to GCNs, and
propose two novel high-performance inference graph convolutional networks,
namely HPI-GCN-RP and HPI-GCN-OP. HPI-GCN-RP uses re-parameterization technique
to GCNs to achieve a higher inference speed with competitive model performance.
HPI-GCN-OP further utilizes over-parameterization technique to bring
significant performance improvement with inference speed slightly decreased.
Experimental results on the two skeleton-based action recognition datasets
demonstrate the effectiveness of our approach. Our HPI-GCN-OP achieves an
accuracy of 93% on the cross-subject split of the NTU-RGB+D 60 dataset, and
90.1% on the cross-subject benchmark of the NTU-RGB+D 120 dataset and is 4.5
times faster than HD-GCN at the same accuracy.
- Abstract(参考訳): 近年,グラフ畳み込みネットワーク(GCN)の出現に伴い,骨格に基づく人間の行動認識において重要な成果が得られた。
しかし、このタスクで使用される最新技術(SOTA)モデルは、関節ノード間のより複雑な高次接続を構築して骨格情報を記述することに重点を置いており、複雑な推論プロセスと高い計算コストをもたらし、結果としてモデルの実用性が低下する。
過度に複雑なモデル構造によって引き起こされる遅い推論速度に対処するため、GCNに再パラメータ化と過パラメータ化技術を導入し、HPI-GCN-RPとHPI-GCN-OPという2つの新しい高性能推論グラフ畳み込みネットワークを提案する。
HPI-GCN-RPはGCNに対する再パラメータ化技術を用いて、競合モデルの性能で高い推論速度を達成する。
hpi-gcn-opはさらにオーバーパラメータ技術を利用して、推論速度をわずかに下げて大幅なパフォーマンス向上を実現している。
2つのスケルトンに基づく行動認識データセットの実験結果は,本手法の有効性を示している。
我々のHPI-GCN-OPは、NTU-RGB+D 60データセットのクロスオブジェクト分割で93%、NTU-RGB+D 120データセットのクロスオブジェクトベンチマークで90.1%の精度で、HD-GCNよりも4.5倍高速である。
関連論文リスト
- Overcoming Topology Agnosticism: Enhancing Skeleton-Based Action
Recognition through Redefined Skeletal Topology Awareness [24.83836008577395]
グラフ畳み込みネットワーク(GCN)は長い間、骨格に基づく行動認識の最先端を定義してきた。
彼らはモデルの重みとともに隣接行列を最適化する傾向がある。
このプロセスは、骨接続データの段階的な崩壊を引き起こし、マッピングしようとしたトポロジとは無関係なモデルで終わる。
本稿では,骨の接続性をグラフ距離のパワーを利用して符号化する革新的な経路を提案する。
論文 参考訳(メタデータ) (2023-05-19T06:40:12Z) - Comprehensive Graph Gradual Pruning for Sparse Training in Graph Neural
Networks [52.566735716983956]
本稿では,CGPと呼ばれるグラフの段階的プルーニングフレームワークを動的にGNNに提案する。
LTHに基づく手法とは異なり、提案手法では再学習を必要とせず、計算コストを大幅に削減する。
提案手法は,既存の手法の精度を一致させたり,あるいは超えたりしながら,トレーニングと推論の効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-18T14:23:31Z) - Continual Spatio-Temporal Graph Convolutional Networks [87.86552250152872]
時空間グラフ畳み込みニューラルネットワークを連続推論ネットワークとして再構成する。
オンライン推論において、最大109倍の時間複雑性、26倍のハードウェアアクセラレーション、最大割り当てメモリの最大52%の削減を観測した。
論文 参考訳(メタデータ) (2022-03-21T14:23:18Z) - MG-GCN: Fast and Effective Learning with Mix-grained Aggregators for
Training Large Graph Convolutional Networks [20.07942308916373]
グラフ畳み込みネットワーク(GCN)は、隣人層の情報を層ごとに集約することでノードの埋め込みを生成する。
GCNの高計算とメモリコストにより、大きなグラフのトレーニングが不可能になる。
MG-GCNと呼ばれる新しいモデルでは、精度、トレーニング速度、収束速度、メモリコストの点で最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2020-11-17T14:51:57Z) - Progressive Spatio-Temporal Graph Convolutional Network for
Skeleton-Based Human Action Recognition [97.14064057840089]
本稿では,グラフ畳み込みネットワークのためのコンパクトで問題固有のネットワークを,段階的に自動的に見つける手法を提案する。
骨格に基づく人体行動認識のための2つのデータセットの実験結果から,提案手法は競争力あるいはより優れた分類性能を有することが示された。
論文 参考訳(メタデータ) (2020-11-11T09:57:49Z) - On the spatial attention in Spatio-Temporal Graph Convolutional Networks
for skeleton-based human action recognition [97.14064057840089]
カルチャーネットワーク(GCN)は、スケルトンをグラフとしてモデル化することで、スケルトンに基づく人間の行動認識の性能を約束する。
最近提案されたG時間に基づく手法のほとんどは、ネットワークの各層におけるグラフ構造を学習することで、性能を向上させる。
論文 参考訳(メタデータ) (2020-11-07T19:03:04Z) - Temporal Attention-Augmented Graph Convolutional Network for Efficient
Skeleton-Based Human Action Recognition [97.14064057840089]
グラフネットワーク(GCN)はユークリッド以外のデータ構造をモデル化するのに非常に成功した。
ほとんどのGCNベースのアクション認識手法は、計算量の多いディープフィードフォワードネットワークを使用して、全てのスケルトンをアクションで処理する。
本稿では,骨格に基づく行動認識の効率を高めるための時間的アテンションモジュール(TAM)を提案する。
論文 参考訳(メタデータ) (2020-10-23T08:01:55Z) - Stronger, Faster and More Explainable: A Graph Convolutional Baseline
for Skeleton-based Action Recognition [22.90127409366107]
グラフ畳み込みネットワーク(GCN)に基づく効率的だが強力なベースラインを提案する。
畳み込みニューラルネットワーク(CNN)におけるResNetアーキテクチャの成功に触発されたResGCNモジュールがGCNで導入された。
PartAttブロックは、アクションシーケンス全体の上で最も重要な身体部分を発見するために提案される。
論文 参考訳(メタデータ) (2020-10-20T02:56:58Z) - Lightweight, Dynamic Graph Convolutional Networks for AMR-to-Text
Generation [56.73834525802723]
軽量な動的グラフ畳み込みネットワーク (LDGCN) を提案する。
LDGCNは入力グラフから高次情報を合成することにより、よりリッチな非局所的な相互作用をキャプチャする。
我々は,グループグラフの畳み込みと重み付き畳み込みに基づく2つの新しいパラメータ保存戦略を開発し,メモリ使用量とモデル複雑性を低減する。
論文 参考訳(メタデータ) (2020-10-09T06:03:46Z) - Feedback Graph Convolutional Network for Skeleton-based Action
Recognition [38.782491442635205]
フィードバックグラフ畳み込みネットワーク(FGCN)という新しいネットワークを提案する。
これは、GCNとアクション認識にフィードバックメカニズムを導入する最初の作業である。
3つのデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-03-17T07:20:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。