論文の概要: CascadeFormer: A Family of Two-stage Cascading Transformers for Skeleton-based Human Action Recognition
- arxiv url: http://arxiv.org/abs/2509.00692v1
- Date: Sun, 31 Aug 2025 04:18:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.344582
- Title: CascadeFormer: A Family of Two-stage Cascading Transformers for Skeleton-based Human Action Recognition
- Title(参考訳): CascadeFormer: 骨格に基づく人間行動認識のための2段階カスケード変換器のファミリー
- Authors: Yusen Peng, Alper Yilmaz,
- Abstract要約: 骨格に基づく人間の行動認識のための2段階カスケードトランスフォーマのファミリーを提案する。
我々の枠組みは、一般化可能な骨格を学習するためのマスク付き事前訓練段階と、ディクリミミミ表現に適したカスケードファインタニング段階から構成されている。
宣伝するため、コードとモデルをGitHubでリリースしています。
- 参考スコア(独自算出の注目度): 4.941630596191806
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Skeleton-based human action recognition leverages sequences of human joint coordinates to identify actions performed in videos. Owing to the intrinsic spatiotemporal structure of skeleton data, Graph Convolutional Networks (GCNs) have been the dominant architecture in this field. However, recent advances in transformer models and masked pretraining frameworks open new avenues for representation learning. In this work, we propose CascadeFormer, a family of two-stage cascading transformers for skeleton-based human action recognition. Our framework consists of a masked pretraining stage to learn generalizable skeleton representations, followed by a cascading fine-tuning stage tailored for discriminative action classification. We evaluate CascadeFormer across three benchmark datasets (Penn Action N-UCLA, and NTU RGB+D 60), achieving competitive performance on all tasks. To promote reproducibility, we release our code and model checkpoints.
- Abstract(参考訳): 骨格に基づく人間の行動認識は、人間の関節座標のシーケンスを利用して、ビデオで実行される行動を特定する。
スケルトンデータの固有時空間構造のため、グラフ畳み込みネットワーク(GCN)がこの分野で支配的なアーキテクチャとなっている。
しかし、トランスモデルやマスク付き事前学習フレームワークの最近の進歩は、表現学習のための新しい道を開く。
本研究では,骨格に基づく人間の行動認識のための2段階カスケード変換器のファミリーであるカスケードホルマーを提案する。
我々の枠組みは、一般化可能な骨格表現を学習するためのマスク付き事前訓練段階と、識別行動分類に適したカスケード微調整段階から構成されている。
我々は、CascadeFormerを3つのベンチマークデータセット(Penn Action N-UCLA、NTU RGB+D 60)で評価し、全てのタスクにおいて競合性能を達成する。
再現性を促進するため、私たちはコードとモデルチェックポイントをリリースします。
関連論文リスト
- SkeleTR: Towrads Skeleton-based Action Recognition in the Wild [86.03082891242698]
SkeleTRは骨格に基づく行動認識のための新しいフレームワークである。
まず、グラフ畳み込みによる各骨格配列の人体内骨格力学をモデル化する。
次に、スタック化されたTransformerエンコーダを使用して、一般的なシナリオにおけるアクション認識に重要な人物のインタラクションをキャプチャする。
論文 参考訳(メタデータ) (2023-09-20T16:22:33Z) - Self-Supervised 3D Action Representation Learning with Skeleton Cloud
Colorization [75.0912240667375]
3Dスケルトンをベースとした人間の行動認識は近年注目を集めている。
既存の研究のほとんどは、多数のラベル付けされたアクションシーケンスを必要とする教師あり学習に焦点を当てている。
本稿では,骨格に基づく行動認識のための自己教師付き3次元行動表現学習について述べる。
論文 参考訳(メタデータ) (2023-04-18T08:03:26Z) - Unified Keypoint-based Action Recognition Framework via Structured
Keypoint Pooling [3.255030588361124]
本稿では,従来の骨格に基づく行動認識に関する3つの制限を同時に解決する。
アクション認識には、ポイントクラウドのディープラーニングパラダイムが導入される。
構造化キーポイントプールと呼ばれる新しいディープニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-03-27T14:59:08Z) - Hierarchical Contrast for Unsupervised Skeleton-based Action
Representation Learning [26.586243471609478]
本稿では,教師なし骨格に基づく行動表現学習を目標とし,階層型コントラスト(HiCo)フレームワークを提案する。
HiCoは複数のレベルの特徴への入力を表し、階層的な方法でコントラストを実行する。
本フレームワークは半教師付き骨格に基づく行動認識に有効である。
論文 参考訳(メタデータ) (2022-12-05T07:52:23Z) - Skeleton-based Action Recognition via Adaptive Cross-Form Learning [75.92422282666767]
スケルトンをベースとした行動認識は、骨格配列をアクションカテゴリに投影することを目的としており、配列は事前に検出された複数の点から導出される。
既存の方法は、相補的なキューのために多形骨格を活用することでGCNを改善する傾向にある。
本稿では,適応型クロスフォーム学習(ACFL)を提案する。
論文 参考訳(メタデータ) (2022-06-30T07:40:03Z) - Joint-bone Fusion Graph Convolutional Network for Semi-supervised
Skeleton Action Recognition [65.78703941973183]
本稿では,CD-JBF-GCNをエンコーダとし,ポーズ予測ヘッドをデコーダとして使用する新しい相関駆動型ジョイントボーン・フュージョングラフ畳み込みネットワークを提案する。
具体的には、CD-JBF-GCは、関節ストリームと骨ストリームの間の運動伝達を探索することができる。
自己教師型トレーニング段階におけるポーズ予測に基づくオートエンコーダにより、未ラベルデータから動作表現を学習することができる。
論文 参考訳(メタデータ) (2022-02-08T16:03:15Z) - Skeleton Cloud Colorization for Unsupervised 3D Action Representation
Learning [65.88887113157627]
骨格に基づく人間の行動認識は近年注目を集めている。
我々は、ラベルのない骨格配列データから骨格表現を学習できる新しいスケルトン雲色化手法を設計する。
提案手法は,既存の教師なしおよび半教師付き3次元動作認識手法よりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2021-08-04T10:55:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。