論文の概要: Spatio-Temporal Joint Density Driven Learning for Skeleton-Based Action Recognition
- arxiv url: http://arxiv.org/abs/2505.23012v1
- Date: Thu, 29 May 2025 02:40:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:07.632086
- Title: Spatio-Temporal Joint Density Driven Learning for Skeleton-Based Action Recognition
- Title(参考訳): スケルトンに基づく行動認識のための時空間結合密度駆動学習
- Authors: Shanaka Ramesh Gunasekara, Wanqing Li, Philip Ogunbona, Jack Yang,
- Abstract要約: 本稿では,空間時空間関節密度(STJD)と呼ばれる新しい計測手法を提案する。
作用を通してこの密度の進化を追跡することは、識別的移動および/または静的関節の部分集合を効果的に特定することができる。
STJD-CLと呼ばれる新しい対照的な学習戦略が提案され、骨格配列の表現をその素関節の表現と整合させる。
- 参考スコア(独自算出の注目度): 4.891381363264954
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Traditional approaches in unsupervised or self supervised learning for skeleton-based action classification have concentrated predominantly on the dynamic aspects of skeletal sequences. Yet, the intricate interaction between the moving and static elements of the skeleton presents a rarely tapped discriminative potential for action classification. This paper introduces a novel measurement, referred to as spatial-temporal joint density (STJD), to quantify such interaction. Tracking the evolution of this density throughout an action can effectively identify a subset of discriminative moving and/or static joints termed "prime joints" to steer self-supervised learning. A new contrastive learning strategy named STJD-CL is proposed to align the representation of a skeleton sequence with that of its prime joints while simultaneously contrasting the representations of prime and nonprime joints. In addition, a method called STJD-MP is developed by integrating it with a reconstruction-based framework for more effective learning. Experimental evaluations on the NTU RGB+D 60, NTU RGB+D 120, and PKUMMD datasets in various downstream tasks demonstrate that the proposed STJD-CL and STJD-MP improved performance, particularly by 3.5 and 3.6 percentage points over the state-of-the-art contrastive methods on the NTU RGB+D 120 dataset using X-sub and X-set evaluations, respectively.
- Abstract(参考訳): 骨格に基づく行動分類のための教師なしまたは自己教師付き学習の伝統的なアプローチは、骨格配列の動的側面に主に集中している。
しかし、骨格の移動要素と静的要素の間の複雑な相互作用は、行動分類のための滅多にタップされた識別電位を示す。
本稿では,空間時空間関節密度(STJD)と呼ばれる新しい計測手法を提案する。
行動を通してこの密度の進化を追跡することは、自己教師付き学習を運営するために「プライムジョイント」と呼ばれる識別的移動および/または静的ジョイントのサブセットを効果的に特定することができる。
STJD-CLと呼ばれる新しい対照的な学習戦略が提案され、骨格配列の表現と素関節の表現とを同時に対比しながら、素関節と非素関節の表現とを一致させる。
また,STJD-MPと呼ばれる手法は,より効果的な学習のための再構築ベースのフレームワークと統合して開発されている。
様々な下流タスクにおけるNTU RGB+D 60, NTU RGB+D 120, PKUMMDデータセットの実験的評価により、提案したSTJD-CLとSTJD-MPは、それぞれX-subとX-setを用いたNTU RGB+D 120データセットの最先端コントラスト法よりも3.5と3.6ポイント向上したことが示された。
関連論文リスト
- Joint Temporal Pooling for Improving Skeleton-based Action Recognition [4.891381363264954]
骨格に基づく人間の行動認識において、時間プーリングは関節力学の関係を捉えるための重要なステップである。
本稿では,骨格に基づく行動認識を改善するために,新しいMAP法を提案する。
JMAPの有効性は、人気のあるNTU RGBD+120とPKU-MMDデータセットの実験を通じて検証されている。
論文 参考訳(メタデータ) (2024-08-18T04:40:16Z) - Skeleton2vec: A Self-supervised Learning Framework with Contextualized
Target Representations for Skeleton Sequence [56.092059713922744]
予測対象として高レベルな文脈化機能を使用することで,優れた性能が得られることを示す。
具体的には、シンプルで効率的な3D行動表現学習フレームワークであるSkeleton2vecを提案する。
提案するSkeleton2vecは,従来の手法より優れ,最先端の結果が得られる。
論文 参考訳(メタデータ) (2024-01-01T12:08:35Z) - SCD-Net: Spatiotemporal Clues Disentanglement Network for
Self-supervised Skeleton-based Action Recognition [39.99711066167837]
本稿では、SCD-Net(Stemporal Clues Disentanglement Network)という、対照的な学習フレームワークを紹介する。
具体的には,これらのシーケンスを特徴抽出器と統合し,空間領域と時間領域からそれぞれ明確な手がかりを導出する。
我々は,NTU-+D (60&120) PKU-MMDI (&I) データセットの評価を行い,行動認識,行動検索,伝達学習などの下流タスクを網羅した。
論文 参考訳(メタデータ) (2023-09-11T21:32:13Z) - Self-supervised Action Representation Learning from Partial
Spatio-Temporal Skeleton Sequences [29.376328807860993]
本研究では,異なる骨格関節とビデオフレームの局所的関係を利用した部分的時空間学習(PSTL)フレームワークを提案する。
提案手法は, NTURGB+D 60, NTURGBMM+D 120, PKU-Dのダウンストリームタスクにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2023-02-17T17:35:05Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z) - SpatioTemporal Focus for Skeleton-based Action Recognition [66.8571926307011]
グラフ畳み込みネットワーク(GCN)は骨格に基づく行動認識において広く採用されている。
近年提案されている骨格に基づく行動認識法の性能は以下の要因によって制限されていると論じる。
近年の注目機構に着想を得て,アクション関連関係情報を取得するためのマルチグラインド・コンテキスト集中モジュール MCF を提案する。
論文 参考訳(メタデータ) (2022-03-31T02:45:24Z) - Joint-bone Fusion Graph Convolutional Network for Semi-supervised
Skeleton Action Recognition [65.78703941973183]
本稿では,CD-JBF-GCNをエンコーダとし,ポーズ予測ヘッドをデコーダとして使用する新しい相関駆動型ジョイントボーン・フュージョングラフ畳み込みネットワークを提案する。
具体的には、CD-JBF-GCは、関節ストリームと骨ストリームの間の運動伝達を探索することができる。
自己教師型トレーニング段階におけるポーズ予測に基づくオートエンコーダにより、未ラベルデータから動作表現を学習することができる。
論文 参考訳(メタデータ) (2022-02-08T16:03:15Z) - Contrast-reconstruction Representation Learning for Self-supervised
Skeleton-based Action Recognition [18.667198945509114]
コントラスト再構成表現学習ネットワーク(CRRL)を提案する。
姿勢と運動のダイナミクスを同時に捉え、教師なし骨格に基づく行動認識を行う。
NTU RGB+D 60, NTU RGB+D 120, CMU mocap, NW-UCLA といったいくつかのベンチマークの実験結果から、提案したCRRL法が実現可能であることが示された。
論文 参考訳(メタデータ) (2021-11-22T08:45:34Z) - 3D Human Action Representation Learning via Cross-View Consistency
Pursuit [52.19199260960558]
教師なし3次元骨格に基づく行動表現(CrosSCLR)のためのクロスビューコントラスト学習フレームワークを提案する。
CrosSCLRは、シングルビューのコントラスト学習(SkeletonCLR)とクロスビューの一貫した知識マイニング(CVC-KM)モジュールの両方で構成されています。
論文 参考訳(メタデータ) (2021-04-29T16:29:41Z) - JOLO-GCN: Mining Joint-Centered Light-Weight Information for
Skeleton-Based Action Recognition [47.47099206295254]
本稿では,2ストリームグラフ畳み込みネットワークにおいて,人間のポーズスケルトンと共同中心の軽量情報を活用するための新しいフレームワークを提案する。
純粋なスケルトンベースのベースラインと比較して、このハイブリッドスキームは、計算とメモリのオーバーヘッドを低く保ちながら、性能を効果的に向上させる。
論文 参考訳(メタデータ) (2020-11-16T08:39:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。