論文の概要: Representation-Centric Survey of Skeletal Action Recognition and the ANUBIS Benchmark
- arxiv url: http://arxiv.org/abs/2205.02071v5
- Date: Mon, 08 Sep 2025 01:53:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:02.509033
- Title: Representation-Centric Survey of Skeletal Action Recognition and the ANUBIS Benchmark
- Title(参考訳): 骨格行動認識とANUBISベンチマークの表現中心調査
- Authors: Yang Liu, Jiyao Yang, Madhawa Perera, Pan Ji, Dongwoo Kim, Min Xu, Tianyang Wang, Saeed Anwar, Tom Gedeon, Lei Wang, Zhenyue Qin,
- Abstract要約: 3Dスケルトンに基づく人間の行動認識は、従来のRGBや深さに基づくアプローチの強力な代替手段として登場した。
目覚ましい進歩にもかかわらず、現在の研究は様々な入力表現で断片化されている。
ANUBISは、既存のベンチマークで重要なギャップに対処するために設計された、大規模で挑戦的なスケルトンアクションデータセットである。
- 参考スコア(独自算出の注目度): 43.00059447663327
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D skeleton-based human action recognition has emerged as a powerful alternative to traditional RGB and depth-based approaches, offering robustness to environmental variations, computational efficiency, and enhanced privacy. Despite remarkable progress, current research remains fragmented across diverse input representations and lacks evaluation under scenarios that reflect modern real-world challenges.This paper presents a representation-centric survey of skeleton-based action recognition, systematically categorizing state-of-the-art methods by their input feature types: joint coordinates, bone vectors, motion flows, and extended representations, and analyzing how these choices influence spatial-temporal modeling strategies. Building on the insights from this review, we introduce ANUBIS, a large-scale, challenging skeleton action dataset designed to address critical gaps in existing benchmarks. ANUBIS incorporates multi-view recordings with back-view perspectives, complex multi-person interactions, fine-grained and violent actions, and contemporary social behaviors.We benchmark a diverse set of state-of-the-art models on ANUBIS and conduct an in-depth analysis of how different feature types affect recognition performance across 102 action categories. Our results show strong action-feature dependencies, highlight the limitations of na\"ive multi-representational fusion, and point toward the need for task-aware, semantically aligned integration strategies. This work offers both a comprehensive foundation and a practical benchmarking resource, aiming to guide the next generation of robust, generalizable skeleton-based action recognition systems for complex real-world scenarios.The dataset website, benchmarking framework, and download link are available at https://yliu1082.github.io/ANUBIS/.
- Abstract(参考訳): 3Dスケルトンに基づく人間の行動認識は、従来のRGBや奥行きに基づくアプローチの強力な代替手段として登場し、環境の変動、計算効率、プライバシー強化への堅牢性を提供している。
本稿では, 現代の実世界の課題を反映したシナリオ下で, 多様な入力表現の断片化と評価の欠如について述べる。本稿では, 骨格に基づく行動認識の表現中心のサーベイ, 入力特徴型による最先端手法の体系的分類, 関節座標, 骨ベクトル, 運動フロー, 拡張表現, およびこれらの選択が空間時間モデル戦略にどのように影響するかを考察する。
このレビューから得られた知見に基づいて、既存のベンチマークで重要なギャップに対処するために設計された、大規模で挑戦的なスケルトンアクションデータセットであるAnUBISを紹介します。
ANUBISは、バックビューの視点、複雑なマルチパーソンインタラクション、きめ細やかな行動、現代の社会的行動を含むマルチビュー記録を取り入れ、ANUBISの最先端モデルの多様なセットをベンチマークし、異なる特徴タイプが102のアクションカテゴリにおける認識性能にどのように影響するかを詳細に分析する。
この結果は、強力なアクション・フィーチャー・依存性を示し、na\の「多表現融合」の限界を強調し、タスク・アウェアでセマンティックに整合した統合戦略の必要性を指摘する。
この作業は、総合的な基盤と実用的なベンチマークリソースの両方を提供し、複雑な現実のシナリオのための、堅牢で一般化可能なスケルトンベースのアクション認識システムをガイドすることを目的としている。データセットのWebサイト、ベンチマークフレームワーク、ダウンロードリンクはhttps://yliu1082.github.io/ANUBIS/で利用可能である。
関連論文リスト
- 3D Skeleton-Based Action Recognition: A Review [60.0580120274659]
3Dスケルトンに基づく行動認識は、コンピュータビジョンの分野において顕著な話題となっている。
以前のレビューでは主にモデル指向の視点を採用しており、しばしば骨格に基づく行動認識に関わる基本的なステップを無視している。
本稿では,骨格に基づく行動認識を理解するための包括的,タスク指向のフレームワークを提案することによって,これらの制約に対処することを目的とする。
論文 参考訳(メタデータ) (2025-06-01T09:04:12Z) - SkeleTR: Towrads Skeleton-based Action Recognition in the Wild [86.03082891242698]
SkeleTRは骨格に基づく行動認識のための新しいフレームワークである。
まず、グラフ畳み込みによる各骨格配列の人体内骨格力学をモデル化する。
次に、スタック化されたTransformerエンコーダを使用して、一般的なシナリオにおけるアクション認識に重要な人物のインタラクションをキャプチャする。
論文 参考訳(メタデータ) (2023-09-20T16:22:33Z) - One-Shot Action Recognition via Multi-Scale Spatial-Temporal Skeleton
Matching [77.6989219290789]
ワンショットスケルトン行動認識は、単一のトレーニングサンプルでスケルトン行動認識モデルを学ぶことを目的としている。
本稿では,マルチスケールな時空間特徴マッチングによる骨格行動認識を行う新しい一発骨格行動認識手法を提案する。
論文 参考訳(メタデータ) (2023-07-14T11:52:10Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z) - PYSKL: Towards Good Practices for Skeleton Action Recognition [77.87404524458809]
PYSKLは、PyTorchをベースとした骨格ベースの行動認識のためのオープンソースのツールボックスである。
有効性と効率性の比較を容易にするため、統一されたフレームワークの下で6つの異なるアルゴリズムを実装している。
PYSKLは、9つのスケルトンベースのアクション認識ベンチマークのトレーニングとテストをサポートし、そのうち8つで最先端の認識性能を達成する。
論文 参考訳(メタデータ) (2022-05-19T09:58:32Z) - Towards a Deeper Understanding of Skeleton-based Gait Recognition [4.812321790984493]
近年、ほとんどの歩行認識法は、人のシルエットを使って歩行の特徴を抽出している。
モデルに基づく手法はこれらの問題に悩まされず、身体関節の時間運動を表現することができる。
本研究では,高次入力と残差ネットワークを組み合わせたグラフ畳み込みネットワーク(GCN)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2022-04-16T18:23:37Z) - Skeleton-Based Mutually Assisted Interacted Object Localization and
Human Action Recognition [111.87412719773889]
本研究では,骨格データに基づく「相互作用対象の局所化」と「人間の行動認識」のための共同学習フレームワークを提案する。
本手法は,人間の行動認識のための最先端の手法を用いて,最高の,あるいは競争的な性能を実現する。
論文 参考訳(メタデータ) (2021-10-28T10:09:34Z) - UNIK: A Unified Framework for Real-world Skeleton-based Action
Recognition [11.81043814295441]
UNIKは、データセットをまたいで一般化できる新しい骨格に基づく行動認識手法である。
実世界のビデオにおける行動認識のクロスドメイン一般化可能性について検討するため,提案したUNIKと同様に最先端のアプローチを再評価する。
その結果,提案したUNIKは,Poseticsを事前学習した上で,4つのターゲットアクション分類データセットに転送した場合に,最先端の処理性能を向上することがわかった。
論文 参考訳(メタデータ) (2021-07-19T02:00:28Z) - Revisiting Skeleton-based Action Recognition [107.08112310075114]
PoseC3Dは骨格に基づく行動認識の新しいアプローチであり、代わりに人間の骨格のベース表現としてグラフシーケンスを積み重ねる3Dヒートマップに依存している。
4つの挑戦的なデータセットにおいて、PoseC3Dは、スケルトン上で単独で使用し、RGBモダリティと組み合わせることで、常に優れたパフォーマンスを得る。
論文 参考訳(メタデータ) (2021-04-28T06:32:17Z) - Unifying Graph Embedding Features with Graph Convolutional Networks for
Skeleton-based Action Recognition [18.001693718043292]
本稿では,人行動認識のためのグラフ畳み込みネットワークに15のグラフ埋め込み機能を組み込んだ新しいフレームワークを提案する。
我々のモデルは,NTU-RGB+D,Kineetics,SYSU-3Dという3つの大規模データセットで検証されている。
論文 参考訳(メタデータ) (2020-03-06T02:31:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。