論文の概要: PYSKL: Towards Good Practices for Skeleton Action Recognition
- arxiv url: http://arxiv.org/abs/2205.09443v1
- Date: Thu, 19 May 2022 09:58:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-20 14:00:46.438049
- Title: PYSKL: Towards Good Practices for Skeleton Action Recognition
- Title(参考訳): PYSKL: 骨格行動認識の実践に向けて
- Authors: Haodong Duan, Jiaqi Wang, Kai Chen, Dahua Lin
- Abstract要約: PYSKLは、PyTorchをベースとした骨格ベースの行動認識のためのオープンソースのツールボックスである。
有効性と効率性の比較を容易にするため、統一されたフレームワークの下で6つの異なるアルゴリズムを実装している。
PYSKLは、9つのスケルトンベースのアクション認識ベンチマークのトレーニングとテストをサポートし、そのうち8つで最先端の認識性能を達成する。
- 参考スコア(独自算出の注目度): 77.87404524458809
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present PYSKL: an open-source toolbox for skeleton-based action
recognition based on PyTorch. The toolbox supports a wide variety of skeleton
action recognition algorithms, including approaches based on GCN and CNN. In
contrast to existing open-source skeleton action recognition projects that
include only one or two algorithms, PYSKL implements six different algorithms
under a unified framework with both the latest and original good practices to
ease the comparison of efficacy and efficiency. We also provide an original
GCN-based skeleton action recognition model named ST-GCN++, which achieves
competitive recognition performance without any complicated attention schemes,
serving as a strong baseline. Meanwhile, PYSKL supports the training and
testing of nine skeleton-based action recognition benchmarks and achieves
state-of-the-art recognition performance on eight of them. To facilitate future
research on skeleton action recognition, we also provide a large number of
trained models and detailed benchmark results to give some insights. PYSKL is
released at https://github.com/kennymckormick/pyskl and is actively maintained.
We will update this report when we add new features or benchmarks. The current
version corresponds to PYSKL v0.2.
- Abstract(参考訳): PyTorchに基づく骨格に基づく行動認識のためのオープンソースのツールボックスであるPYSKLを提案する。
このツールボックスは、gcnとcnnに基づくアプローチを含む、様々なスケルトンアクション認識アルゴリズムをサポートしている。
1つまたは2つのアルゴリズムのみを含む既存のオープンソースのスケルトン行動認識プロジェクトとは対照的に、PYSKLは6つの異なるアルゴリズムを統一されたフレームワークの下で実装し、有効性と効率の比較を容易にするために、最新およびオリジナル両方の優れたプラクティスを実装している。
また,ST-GCN++という独自のGCNベースのスケルトン動作認識モデルも提供し,複雑な注意スキームを伴わずに競合認識性能を実現し,強力なベースラインとして機能する。
一方、PYSKLは9つの骨格に基づく行動認識ベンチマークのトレーニングとテストをサポートし、そのうち8つで最先端の認識性能を達成する。
骨格行動認識の今後の研究を容易にするため,多数の訓練済みモデルと詳細なベンチマーク結果も提供し,いくつかの知見を得た。
PYSKLはhttps://github.com/kennymckormick/pysklでリリースされ、アクティブにメンテナンスされている。
新機能やベンチマークを追加すると、このレポートを更新します。
現在のバージョンはPYSKL v0.2に対応している。
関連論文リスト
- Mask and Compress: Efficient Skeleton-based Action Recognition in Continual Learning [29.561972935011877]
CHARON(Continual Human Action Recognition On skeletoNs)を導入し、効率的なフレームワーク内で動作しながら一貫した性能を維持する。
Split NTU-60 と提案した Split NTU-120 データセットに関する実験により,CHARON がこの領域に新たなベンチマークを設定できることが示されている。
論文 参考訳(メタデータ) (2024-07-01T15:48:49Z) - Expressive Keypoints for Skeleton-based Action Recognition via Skeleton Transformation [14.033701085783177]
我々は,手と足の詳細を組み込んだ表現的キーポイントを提案し,複雑な動作を識別する既存のモデルの識別能力を向上させる。
プラグアンドプレイのインスタンスプールモジュールは、計算コストを増大させることなく、マルチパーソンシナリオにアプローチを拡張するために利用されます。
論文 参考訳(メタデータ) (2024-06-26T01:48:56Z) - SkeleTR: Towrads Skeleton-based Action Recognition in the Wild [86.03082891242698]
SkeleTRは骨格に基づく行動認識のための新しいフレームワークである。
まず、グラフ畳み込みによる各骨格配列の人体内骨格力学をモデル化する。
次に、スタック化されたTransformerエンコーダを使用して、一般的なシナリオにおけるアクション認識に重要な人物のインタラクションをキャプチャする。
論文 参考訳(メタデータ) (2023-09-20T16:22:33Z) - FastPoseGait: A Toolbox and Benchmark for Efficient Pose-based Gait
Recognition [11.985433662623036]
FastPoseGaitは、PyTorchをベースとしたポーズベースの歩行認識のためのオープンソースのツールボックスである。
ツールボックスは、最先端のポーズベースの歩行認識アルゴリズムと、関連するさまざまなベンチマークをサポートする。
論文 参考訳(メタデータ) (2023-09-02T02:05:58Z) - One-Shot Action Recognition via Multi-Scale Spatial-Temporal Skeleton
Matching [77.6989219290789]
ワンショットスケルトン行動認識は、単一のトレーニングサンプルでスケルトン行動認識モデルを学ぶことを目的としている。
本稿では,マルチスケールな時空間特徴マッチングによる骨格行動認識を行う新しい一発骨格行動認識手法を提案する。
論文 参考訳(メタデータ) (2023-07-14T11:52:10Z) - Generative Action Description Prompts for Skeleton-based Action
Recognition [15.38417530693649]
本稿では,骨格に基づく行動認識のためのGAP(Generative Action-Description Prompts)アプローチを提案する。
本研究では,行動の身体部分の動きのテキスト記述を自動的に生成する知識エンジンとして,事前学習された大規模言語モデルを用いる。
提案手法は,推定コストを伴わずに,様々なベースラインモデルに対して顕著な改善を実現する。
論文 参考訳(メタデータ) (2022-08-10T12:55:56Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z) - ANUBIS: Review and Benchmark Skeleton-Based Action Recognition Methods
with a New Dataset [26.581495230711198]
本稿では,骨格型行動認識の既存の研究について,分類学の形で概説する。
より公平で包括的な評価を促進するために,大規模な人体骨格データセットAnUBISを収集する。
論文 参考訳(メタデータ) (2022-05-04T14:03:43Z) - Joint-bone Fusion Graph Convolutional Network for Semi-supervised
Skeleton Action Recognition [65.78703941973183]
本稿では,CD-JBF-GCNをエンコーダとし,ポーズ予測ヘッドをデコーダとして使用する新しい相関駆動型ジョイントボーン・フュージョングラフ畳み込みネットワークを提案する。
具体的には、CD-JBF-GCは、関節ストリームと骨ストリームの間の運動伝達を探索することができる。
自己教師型トレーニング段階におけるポーズ予測に基づくオートエンコーダにより、未ラベルデータから動作表現を学習することができる。
論文 参考訳(メタデータ) (2022-02-08T16:03:15Z) - A Self-Supervised Gait Encoding Approach with Locality-Awareness for 3D
Skeleton Based Person Re-Identification [65.18004601366066]
3Dスケルトン配列内の歩行特徴による人物再識別(Re-ID)は、いくつかの利点を持つ新しい話題である。
本稿では、ラベルのない骨格データを利用して人物の歩行表現を学習できる自己教師付き歩行符号化手法を提案する。
論文 参考訳(メタデータ) (2020-09-05T16:06:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。