論文の概要: Constructing Stronger and Faster Baselines for Skeleton-based Action
Recognition
- arxiv url: http://arxiv.org/abs/2106.15125v1
- Date: Tue, 29 Jun 2021 07:09:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-30 15:27:30.922684
- Title: Constructing Stronger and Faster Baselines for Skeleton-based Action
Recognition
- Title(参考訳): 骨格に基づく行動認識のためのより強靭で高速なベースラインの構築
- Authors: Yi-Fan Song, Zhang Zhang, Caifeng Shan, Liang Wang
- Abstract要約: 骨格に基づく行動認識のための効率的なグラフ畳み込みネットワーク(GCN)のベースラインを提案する。
NTU RGB+D 60 と 120 の2つの大規模データセットでは、提案されたEfficientGCN-B4 ベースラインは、他の State-Of-The-Art (SOTA) メソッドよりも優れている。
- 参考スコア(独自算出の注目度): 19.905455701387194
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One essential problem in skeleton-based action recognition is how to extract
discriminative features over all skeleton joints. However, the complexity of
the recent State-Of-The-Art (SOTA) models for this task tends to be exceedingly
sophisticated and over-parameterized. The low efficiency in model training and
inference has increased the validation costs of model architectures in
large-scale datasets. To address the above issue, recent advanced separable
convolutional layers are embedded into an early fused Multiple Input Branches
(MIB) network, constructing an efficient Graph Convolutional Network (GCN)
baseline for skeleton-based action recognition. In addition, based on such the
baseline, we design a compound scaling strategy to expand the model's width and
depth synchronously, and eventually obtain a family of efficient GCN baselines
with high accuracies and small amounts of trainable parameters, termed
EfficientGCN-Bx, where ''x'' denotes the scaling coefficient. On two
large-scale datasets, i.e., NTU RGB+D 60 and 120, the proposed EfficientGCN-B4
baseline outperforms other SOTA methods, e.g., achieving 91.7% accuracy on the
cross-subject benchmark of NTU 60 dataset, while being 3.15x smaller and 3.21x
faster than MS-G3D, which is one of the best SOTA methods. The source code in
PyTorch version and the pretrained models are available at
https://github.com/yfsong0709/EfficientGCNv1.
- Abstract(参考訳): 骨格に基づく行動認識における重要な問題は、すべての骨格関節で識別的特徴を抽出する方法である。
しかし、最近のステートオフ・ザ・アルト(SOTA)モデルの複雑さは、非常に高度で過度にパラメータ化される傾向にある。
モデルトレーニングと推論の低効率化により、大規模データセットにおけるモデルアーキテクチャの検証コストが増大した。
上記の問題に対処するため、最近の高度な分離可能な畳み込み層を早期に融合したMultiple Input Branches (MIB)ネットワークに組み込み、スケルトンに基づく行動認識のための効率的なグラフ畳み込みネットワーク(GCN)ベースラインを構築する。
さらに,そのようなベースラインに基づいて,モデルの幅と深さを同期的に拡張する複合スケーリング戦略を設計し,その結果,'x'がスケーリング係数を表すような,高精度かつ少量のトレーニング可能なパラメータを持つ効率的なGCNベースラインのファミリーを得る。
NTU RGB+D 60と120という2つの大規模データセットでは、提案されたEfficientGCN-B4ベースラインは、NTU 60データセットのクロスオブジェクトベンチマークにおいて91.7%の精度を達成し、MS-G3Dよりも3.15倍小さく、3.21倍高速である。
PyTorchバージョンと事前訓練されたモデルのソースコードはhttps://github.com/yfsong0709/EfficientGCNv1で入手できる。
関連論文リスト
- Efficient Heterogeneous Graph Learning via Random Projection [65.65132884606072]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - DRGCN: Dynamic Evolving Initial Residual for Deep Graph Convolutional
Networks [19.483662490506646]
我々はDRGCN(Residual Graph Convolutional Network)と呼ばれる新しいモデルを提案する。
実験結果から, 深部GCNの過密化問題を効果的に解消できることが示唆された。
我々のモデルはOpen Graph Benchmark (OGB) の大規模ogbn-arxivデータセット上で新しいSOTA結果に達する。
論文 参考訳(メタデータ) (2023-02-10T06:57:12Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - Comprehensive Graph Gradual Pruning for Sparse Training in Graph Neural
Networks [52.566735716983956]
本稿では,CGPと呼ばれるグラフの段階的プルーニングフレームワークを動的にGNNに提案する。
LTHに基づく手法とは異なり、提案手法では再学習を必要とせず、計算コストを大幅に削減する。
提案手法は,既存の手法の精度を一致させたり,あるいは超えたりしながら,トレーニングと推論の効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-18T14:23:31Z) - Binary Early-Exit Network for Adaptive Inference on Low-Resource Devices [3.591566487849146]
バイナリニューラルネットワーク(BNN)は、実数値モデルと比較して、極端な圧縮とスピードアップによる問題に対処する。
そこで本研究では,BNNを早期導入戦略で統合して推論を高速化する,シンプルだが効果的な手法を提案する。
このアプローチでは、決定しきい値に基づいて単純なインスタンスを早期に終了させ、異なる中間層に追加される出力層を利用してバイナリモデル全体の実行を回避する。
論文 参考訳(メタデータ) (2022-06-17T22:11:11Z) - Spatio-Temporal Inception Graph Convolutional Networks for
Skeleton-Based Action Recognition [126.51241919472356]
我々はスケルトンに基づく行動認識のためのシンプルで高度にモジュール化されたグラフ畳み込みネットワークアーキテクチャを設計する。
ネットワークは,空間的および時間的経路から多粒度情報を集約するビルディングブロックを繰り返すことで構築される。
論文 参考訳(メタデータ) (2020-11-26T14:43:04Z) - Temporal Attention-Augmented Graph Convolutional Network for Efficient
Skeleton-Based Human Action Recognition [97.14064057840089]
グラフネットワーク(GCN)はユークリッド以外のデータ構造をモデル化するのに非常に成功した。
ほとんどのGCNベースのアクション認識手法は、計算量の多いディープフィードフォワードネットワークを使用して、全てのスケルトンをアクションで処理する。
本稿では,骨格に基づく行動認識の効率を高めるための時間的アテンションモジュール(TAM)を提案する。
論文 参考訳(メタデータ) (2020-10-23T08:01:55Z) - Stronger, Faster and More Explainable: A Graph Convolutional Baseline
for Skeleton-based Action Recognition [22.90127409366107]
グラフ畳み込みネットワーク(GCN)に基づく効率的だが強力なベースラインを提案する。
畳み込みニューラルネットワーク(CNN)におけるResNetアーキテクチャの成功に触発されたResGCNモジュールがGCNで導入された。
PartAttブロックは、アクションシーケンス全体の上で最も重要な身体部分を発見するために提案される。
論文 参考訳(メタデータ) (2020-10-20T02:56:58Z) - Mix Dimension in Poincar\'{e} Geometry for 3D Skeleton-based Action
Recognition [57.98278794950759]
グラフ畳み込みネットワーク(GCN)はすでに、不規則なデータをモデル化する強力な能力を実証している。
本稿では,ポアンカー幾何学を用いて定義した空間時空間GCNアーキテクチャを提案する。
提案手法を,現在最大規模の2つの3次元データセット上で評価する。
論文 参考訳(メタデータ) (2020-07-30T18:23:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。