論文の概要: Are Spatial-Temporal Graph Convolution Networks for Human Action Recognition Over-Parameterized?
- arxiv url: http://arxiv.org/abs/2505.10679v1
- Date: Thu, 15 May 2025 19:50:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:13.476848
- Title: Are Spatial-Temporal Graph Convolution Networks for Human Action Recognition Over-Parameterized?
- Title(参考訳): 空間時間グラフ畳み込みネットワークは人間の行動認識を過度にパラメータ化するか?
- Authors: Jianyang Xie, Yitian Zhao, Yanda Meng, He Zhao, Anh Nguyen, Yalin Zheng,
- Abstract要約: スパース畳み込みネットワークは、その高密度なコンポーネントに匹敵する性能が得られることを示す。
NTU-RGB+D 60(120), Kinetics-400, FineGYM を含む4つのデータセットの実験により、提案したスパース ST-GCN は、その密度の高いコンポーネントと同等の性能が得られることを示した。
- 参考スコア(独自算出の注目度): 20.207705303075514
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spatial-temporal graph convolutional networks (ST-GCNs) showcase impressive performance in skeleton-based human action recognition (HAR). However, despite the development of numerous models, their recognition performance does not differ significantly after aligning the input settings. With this observation, we hypothesize that ST-GCNs are over-parameterized for HAR, a conjecture subsequently confirmed through experiments employing the lottery ticket hypothesis. Additionally, a novel sparse ST-GCNs generator is proposed, which trains a sparse architecture from a randomly initialized dense network while maintaining comparable performance levels to the dense components. Moreover, we generate multi-level sparsity ST-GCNs by integrating sparse structures at various sparsity levels and demonstrate that the assembled model yields a significant enhancement in HAR performance. Thorough experiments on four datasets, including NTU-RGB+D 60(120), Kinetics-400, and FineGYM, demonstrate that the proposed sparse ST-GCNs can achieve comparable performance to their dense components. Even with 95% fewer parameters, the sparse ST-GCNs exhibit a degradation of <1% in top-1 accuracy. Meanwhile, the multi-level sparsity ST-GCNs, which require only 66% of the parameters of the dense ST-GCNs, demonstrate an improvement of >1% in top-1 accuracy. The code is available at https://github.com/davelailai/Sparse-ST-GCN.
- Abstract(参考訳): 時空間グラフ畳み込みネットワーク(ST-GCN)は骨格に基づく人行動認識(HAR)において顕著な性能を示した。
しかし、多くのモデルが開発されているにもかかわらず、それらの認識性能は入力設定を整列させても大きな違いはない。
この観察から,ST-GCNはHARに対して過度にパラメータ化されていると仮定した。
さらに、ランダムに初期化された高密度ネットワークからスパースアーキテクチャをトレーニングし、高密度コンポーネントに匹敵する性能レベルを維持しながら、新しいスパースST-GCNsジェネレータを提案する。
さらに, スパース構造を種々のスパースレベルに統合することにより, マルチレベルスペース ST-GCN を生成し, HAR 性能を著しく向上させることを示す。
NTU-RGB+D 60(120), Kinetics-400, FineGYM を含む4つのデータセットの詳細な実験により、提案したスパース ST-GCN は、その高密度成分と同等の性能が得られることを示した。
パラメータが95%少なくても, スパースST-GCNは0。
一方、高密度ST-GCNのパラメータの66%しか必要としない多レベルST-GCNは、トップ1の精度が1%以上向上したことを示す。
コードはhttps://github.com/davelailai/Sparse-ST-GCNで公開されている。
関連論文リスト
- Parameter-Efficient Fine-Tuning in Spectral Domain for Point Cloud Learning [49.91297276176978]
私たちは小説を提案します。
ポイントGST (Point GST) と呼ばれる点雲の効率的な微細調整法。
ポイントGSTは事前トレーニングされたモデルを凍結し、スペクトル領域のパラメータを微調整するためのトレーニング可能なポイントクラウドスペクトルアダプタ(PCSA)を導入する。
挑戦的なポイントクラウドデータセットに関する大規模な実験は、ポイントGSTが完全に微調整されたデータセットを上回るだけでなく、トレーニング可能なパラメータを大幅に削減することを示した。
論文 参考訳(メタデータ) (2024-10-10T17:00:04Z) - A Topological Perspective on Demystifying GNN-Based Link Prediction
Performance [72.06314265776683]
トポロジカル濃度 (TC) は、各ノードの局所部分グラフと隣人の部分グラフの交点に基づいている。
また,TCLは,次数や部分グラフ密度などの他のノードレベルのトポロジ指標よりもLP性能と高い相関性を示した。
我々は, 近似トポロジカル濃度 (ATC) を提案し, 理論的・経験的にTC近似の有効性を正当化し, 複雑さを低減させる。
論文 参考訳(メタデータ) (2023-10-06T22:07:49Z) - High-Performance Inference Graph Convolutional Networks for Skeleton-Based Action Recognition [6.728040264083982]
本稿では,HPI-GCN-RPとHPI-GCN-OPという2つの新しい高性能推論GCNを提案する。
我々のHPI-GCN-OPは、NTU-RGB+D 60データセットのクロスオブジェクト分割で93%、NTU-RGB+D 120データセットで90.1%の精度を達成する。
論文 参考訳(メタデータ) (2023-05-30T03:30:24Z) - Continual Spatio-Temporal Graph Convolutional Networks [87.86552250152872]
時空間グラフ畳み込みニューラルネットワークを連続推論ネットワークとして再構成する。
オンライン推論において、最大109倍の時間複雑性、26倍のハードウェアアクセラレーション、最大割り当てメモリの最大52%の削減を観測した。
論文 参考訳(メタデータ) (2022-03-21T14:23:18Z) - Towards Efficient Graph Convolutional Networks for Point Cloud Handling [181.59146413326056]
ポイントクラウド上で学習するためのグラフ畳み込みネットワーク(GCN)の計算効率の向上を目指します。
一連の実験により、最適化されたネットワークは計算複雑性を減らし、メモリ消費を減らし、推論速度を加速した。
論文 参考訳(メタデータ) (2021-04-12T17:59:16Z) - MG-GCN: Fast and Effective Learning with Mix-grained Aggregators for
Training Large Graph Convolutional Networks [20.07942308916373]
グラフ畳み込みネットワーク(GCN)は、隣人層の情報を層ごとに集約することでノードの埋め込みを生成する。
GCNの高計算とメモリコストにより、大きなグラフのトレーニングが不可能になる。
MG-GCNと呼ばれる新しいモデルでは、精度、トレーニング速度、収束速度、メモリコストの点で最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2020-11-17T14:51:57Z) - Understanding and Resolving Performance Degradation in Graph
Convolutional Networks [105.14867349802898]
グラフ畳み込みネットワーク(GCN)は複数のレイヤを積み重ね、グラフ構造化データ上でノード表現を学習するためのPROPとTRANを実行する。
GCNはモデルが深くなるとパフォーマンスが低下する傾向がある。
本稿では,TRANやPROPのみを積み重ねることによるGCNの性能劣化について実験的に検討する。
論文 参考訳(メタデータ) (2020-06-12T12:12:12Z) - Efficient and Stable Graph Scattering Transforms via Pruning [86.76336979318681]
グラフ散乱変換(GST)は、グラフデータから特徴を抽出する訓練のないディープGCNモデルを提供する。
GSTが支払う価格は、層の数によって増加する空間と時間の指数関数的な複雑さである。
本研究は, GST の複雑性の限界に対処し, 効率的な (p) GST アプローチを導入する。
論文 参考訳(メタデータ) (2020-01-27T16:05:56Z) - Effective Stabilized Self-Training on Few-Labeled Graph Data [25.09247229533235]
グラフニューラルネットワーク(GNN)は、ノードのサブセットだけがクラスラベルを持つグラフ上の半教師付きノード分類のために設計されている。
既存のGNNは、ラベルの少ないグラフ上で不安定なトレーニングプロセスに悩まされており、ノード分類では性能が劣る。
本稿では,ラベル付きデータの不足に対処するため,既存のGNNに適用可能なSST(Stabilized Self-Training)を提案する。
論文 参考訳(メタデータ) (2019-10-07T09:21:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。