論文の概要: FineTec: Fine-Grained Action Recognition Under Temporal Corruption via Skeleton Decomposition and Sequence Completion
- arxiv url: http://arxiv.org/abs/2512.25067v1
- Date: Wed, 31 Dec 2025 18:59:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.751094
- Title: FineTec: Fine-Grained Action Recognition Under Temporal Corruption via Skeleton Decomposition and Sequence Completion
- Title(参考訳): FineTec:スケルトン分解とシークエンス完了による経時的破壊下での微粒化行動認識
- Authors: Dian Shao, Mingfei Shi, Like Liu,
- Abstract要約: FineTecは、時間的破壊下でのきめ細かい行動認識のための統合されたフレームワークである。
実験では、FineTecは、様々な時間的腐敗のレベルにおいて、従来の方法よりも大幅に優れていた。
具体的には、FinalTecは、挑戦的なGym99-severeとGym288-severe設定でそれぞれ89.1%と78.1%のトップ1アキュラシーを達成している。
- 参考スコア(独自算出の注目度): 7.797281390725814
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recognizing fine-grained actions from temporally corrupted skeleton sequences remains a significant challenge, particularly in real-world scenarios where online pose estimation often yields substantial missing data. Existing methods often struggle to accurately recover temporal dynamics and fine-grained spatial structures, resulting in the loss of subtle motion cues crucial for distinguishing similar actions. To address this, we propose FineTec, a unified framework for Fine-grained action recognition under Temporal Corruption. FineTec first restores a base skeleton sequence from corrupted input using context-aware completion with diverse temporal masking. Next, a skeleton-based spatial decomposition module partitions the skeleton into five semantic regions, further divides them into dynamic and static subgroups based on motion variance, and generates two augmented skeleton sequences via targeted perturbation. These, along with the base sequence, are then processed by a physics-driven estimation module, which utilizes Lagrangian dynamics to estimate joint accelerations. Finally, both the fused skeleton position sequence and the fused acceleration sequence are jointly fed into a GCN-based action recognition head. Extensive experiments on both coarse-grained (NTU-60, NTU-120) and fine-grained (Gym99, Gym288) benchmarks show that FineTec significantly outperforms previous methods under various levels of temporal corruption. Specifically, FineTec achieves top-1 accuracies of 89.1% and 78.1% on the challenging Gym99-severe and Gym288-severe settings, respectively, demonstrating its robustness and generalizability. Code and datasets could be found at https://smartdianlab.github.io/projects-FineTec/.
- Abstract(参考訳): 時間的に破損した骨格配列からのきめ細かい行動を認識することは、特にオンラインのポーズ推定が欠落することが多い現実のシナリオにおいて、重要な課題である。
既存の手法では、時間的ダイナミクスや微粒な空間構造を正確に回復するのに苦労することが多く、結果として、同様の行動を区別するためには微妙な動きの手がかりが欠落する。
そこで本研究では,時間的破壊下での微細な動作認識のための統合フレームワークであるFineTecを提案する。
FineTecはまず、コンテキスト認識完了と多様な時間マスキングを用いて、破損した入力からベーススケルトンシーケンスを復元する。
次に、骨格に基づく空間分解モジュールは、骨格を5つの意味領域に分割し、運動の分散に基づいて動的および静的なサブグループに分割し、標的摂動を介して2つの強化された骨格配列を生成する。
これらは塩基配列とともに、ラグランジアン力学を用いて関節加速度を推定する物理駆動推定モジュールによって処理される。
最後に、融合骨格位置シーケンスと融合加速シーケンスの両方をGCNベースの動作認識ヘッドに連通する。
粗粒度 (NTU-60, NTU-120) と細粒度 (Gym99, Gym288) のベンチマークにおいて、FinTec は時間的腐敗の様々なレベルにおいて従来の手法よりも著しく優れていた。
具体的には、FineTecは、Gym99-severeとGym288-severe設定でそれぞれ89.1%と78.1%のトップ1アキュラシーを達成し、その堅牢性と一般化性を示している。
コードとデータセットはhttps://smartdianlab.github.io/projects-FineTec/で確認できる。
関連論文リスト
- EntroPE: Entropy-Guided Dynamic Patch Encoder for Time Series Forecasting [50.794700596484894]
IntroPE(Entropy-Guided Dynamic Patch)は,条件付きエントロピーによる遷移点を動的に検出する新しい時間情報フレームワークである。
これは、パッチの計算上の利点を維持しながら、時間構造を保存する。
長期予測ベンチマークによる実験では、EntroPEは精度と効率の両方を改善している。
論文 参考訳(メタデータ) (2025-09-30T12:09:56Z) - Skeleton Motion Words for Unsupervised Skeleton-Based Temporal Action Segmentation [11.045126693185377]
本稿では,非教師なし骨格に基づく時間的動作分割のための新しいアプローチを提案する。
本手法では, 組込み空間に分散した継手の情報を格納するシーケンシャル・ツー・シーケンス・テンポラル・オートエンコーダを用いる。
広く使われている3つの骨格ベースのデータセットに対して提案手法を徹底的に評価した。
論文 参考訳(メタデータ) (2025-08-06T14:56:38Z) - Skeleton2vec: A Self-supervised Learning Framework with Contextualized
Target Representations for Skeleton Sequence [56.092059713922744]
予測対象として高レベルな文脈化機能を使用することで,優れた性能が得られることを示す。
具体的には、シンプルで効率的な3D行動表現学習フレームワークであるSkeleton2vecを提案する。
提案するSkeleton2vecは,従来の手法より優れ,最先端の結果が得られる。
論文 参考訳(メタデータ) (2024-01-01T12:08:35Z) - Exploring Self-supervised Skeleton-based Action Recognition in Occluded Environments [40.322770236718775]
我々は,オクルージョンを扱うためのシンプルで効果的な自己教師型学習フレームワークであるIosPSTLを提案する。
IosPSTLはクラスタに依存しないKNN命令とOccluded partial Spatio-Temporal Learning (OPSTL)戦略を組み合わせる。
OPSTLモジュールは適応空間マスキング (Adaptive Spatial Masking, ASM) を組み込んで、トレーニング中に無傷で高品質な骨格配列をうまく活用する。
論文 参考訳(メタデータ) (2023-09-21T12:51:11Z) - SkeletonMAE: Graph-based Masked Autoencoder for Skeleton Sequence
Pre-training [110.55093254677638]
我々はSkeleton Sequence Learning(SSL)という,効率的なスケルトンシーケンス学習フレームワークを提案する。
本論文では,SkeletonMAEという非対称なグラフベースのエンコーダデコーダ事前学習アーキテクチャを構築する。
我々のSSLは、さまざまなデータセットにまたがってうまく一般化し、最先端の自己教師型スケルトンベースのアクション認識手法よりも優れています。
論文 参考訳(メタデータ) (2023-07-17T13:33:11Z) - One-Shot Action Recognition via Multi-Scale Spatial-Temporal Skeleton
Matching [77.6989219290789]
ワンショットスケルトン行動認識は、単一のトレーニングサンプルでスケルトン行動認識モデルを学ぶことを目的としている。
本稿では,マルチスケールな時空間特徴マッチングによる骨格行動認識を行う新しい一発骨格行動認識手法を提案する。
論文 参考訳(メタデータ) (2023-07-14T11:52:10Z) - Self-supervised Action Representation Learning from Partial
Spatio-Temporal Skeleton Sequences [29.376328807860993]
本研究では,異なる骨格関節とビデオフレームの局所的関係を利用した部分的時空間学習(PSTL)フレームワークを提案する。
提案手法は, NTURGB+D 60, NTURGBMM+D 120, PKU-Dのダウンストリームタスクにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2023-02-17T17:35:05Z) - SkeletonMAE: Spatial-Temporal Masked Autoencoders for Self-supervised
Skeleton Action Recognition [13.283178393519234]
自己監督型骨格に基づく行動認識が注目されている。
ラベルのないデータを利用することで、オーバーフィッティング問題を緩和するためにより一般化可能な特徴を学ぶことができる。
自己教師型3次元骨格に基づく行動認識のための空間時間マスク付きオートエンコーダフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-01T20:54:27Z) - Temporally-Consistent Surface Reconstruction using Metrically-Consistent
Atlases [131.50372468579067]
そこで本稿では,時間変化点雲列から時間一貫性のある面列を復元する手法を提案する。
我々は、再構成された表面をニューラルネットワークによって計算されたアトラスとして表現し、フレーム間の対応性を確立することができる。
当社のアプローチは、いくつかの挑戦的なデータセットにおいて、最先端のものよりも優れています。
論文 参考訳(メタデータ) (2021-11-12T17:48:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。