論文の概要: Representation-Centric Survey of Skeletal Action Recognition and the ANUBIS Benchmark
- arxiv url: http://arxiv.org/abs/2205.02071v6
- Date: Sun, 14 Sep 2025 12:56:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-19 15:20:13.429407
- Title: Representation-Centric Survey of Skeletal Action Recognition and the ANUBIS Benchmark
- Title(参考訳): 骨格行動認識とANUBISベンチマークの表現中心調査
- Authors: Yang Liu, Jiyao Yang, Madhawa Perera, Pan Ji, Dongwoo Kim, Min Xu, Tianyang Wang, Saeed Anwar, Tom Gedeon, Lei Wang, Zhenyue Qin,
- Abstract要約: 3Dスケルトンに基づく人間の行動認識は、従来のRGBや深さに基づくアプローチの強力な代替手段として登場した。
目覚ましい進歩にもかかわらず、現在の研究は様々な入力表現で断片化されている。
ANUBISは、既存のベンチマークで重要なギャップに対処するために設計された、大規模で挑戦的なスケルトンアクションデータセットである。
- 参考スコア(独自算出の注目度): 43.00059447663327
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D skeleton-based human action recognition has emerged as a powerful alternative to traditional RGB and depth-based approaches, offering robustness to environmental variations, computational efficiency, and enhanced privacy. Despite remarkable progress, current research remains fragmented across diverse input representations and lacks evaluation under scenarios that reflect modern real-world challenges. This paper presents a representation-centric survey of skeleton-based action recognition, systematically categorizing state-of-the-art methods by their input feature types: joint coordinates, bone vectors, motion flows, and extended representations, and analyzing how these choices influence spatial-temporal modeling strategies. Building on the insights from this review, we introduce ANUBIS, a large-scale, challenging skeleton action dataset designed to address critical gaps in existing benchmarks. ANUBIS incorporates multi-view recordings with back-view perspectives, complex multi-person interactions, fine-grained and violent actions, and contemporary social behaviors. We benchmark a diverse set of state-of-the-art models on ANUBIS and conduct an in-depth analysis of how different feature types affect recognition performance across 102 action categories. Our results show strong action-feature dependencies, highlight the limitations of na\"ive multi-representational fusion, and point toward the need for task-aware, semantically aligned integration strategies. This work offers both a comprehensive foundation and a practical benchmarking resource, aiming to guide the next generation of robust, generalizable skeleton-based action recognition systems for complex real-world scenarios. The dataset website, benchmarking framework, and download link are available at https://yliu1082.github.io/ANUBIS/.
- Abstract(参考訳): 3Dスケルトンに基づく人間の行動認識は、従来のRGBや奥行きに基づくアプローチの強力な代替手段として登場し、環境の変動、計算効率、プライバシー強化への堅牢性を提供している。
目覚ましい進歩にもかかわらず、現在の研究は多様な入力表現で断片化され、現代の現実世界の課題を反映したシナリオ下での評価が欠如している。
本稿では, 骨格に基づく行動認識の表現中心的調査を行い, 入力特徴型(関節座標, 骨ベクトル, 運動フロー, および拡張表現)により, その選択が空間的時間的モデリング戦略にどのように影響するかを系統的に分類する。
このレビューから得られた知見に基づいて、既存のベンチマークで重要なギャップに対処するために設計された、大規模で挑戦的なスケルトンアクションデータセットであるAnUBISを紹介します。
ANUBISは、バックビューの視点、複雑なマルチパーソンインタラクション、きめ細かい行動と暴力行動、現代の社会的行動を含むマルチビューレコーディングを取り入れている。
我々は、ANUBIS上で様々な最先端モデルをベンチマークし、異なる特徴タイプが102のアクションカテゴリで認識性能にどのように影響するかを詳細に分析する。
この結果は、強力なアクション・フィーチャー・依存性を示し、na\の「多表現融合」の限界を強調し、タスク・アウェアでセマンティックに整合した統合戦略の必要性を指摘する。
この研究は、複雑な現実世界のシナリオに対して、次世代の堅牢で一般化可能なスケルトンベースのアクション認識システムを導くことを目的として、包括的な基盤と実用的なベンチマークリソースの両方を提供する。
データセットのWebサイト、ベンチマークフレームワーク、ダウンロードリンクはhttps://yliu1082.github.io/ANUBIS/で公開されている。
関連論文リスト
- 3D Skeleton-Based Action Recognition: A Review [60.0580120274659]
3Dスケルトンに基づく行動認識は、コンピュータビジョンの分野において顕著な話題となっている。
以前のレビューでは主にモデル指向の視点を採用しており、しばしば骨格に基づく行動認識に関わる基本的なステップを無視している。
本稿では,骨格に基づく行動認識を理解するための包括的,タスク指向のフレームワークを提案することによって,これらの制約に対処することを目的とする。
論文 参考訳(メタデータ) (2025-06-01T09:04:12Z) - Place Recognition Meet Multiple Modalitie: A Comprehensive Review, Current Challenges and Future Directions [2.4775350526606355]
位置認識の最近の進歩を概観し,3つの方法論的パラダイムを強調した。
CNNベースのアプローチ、トランスフォーマーベースのフレームワーク、およびクロスモーダル戦略について議論する。
我々は現在の研究課題を特定し、ドメイン適応、リアルタイムパフォーマンス、生涯学習を含む今後の方向性を概説し、この領域の今後の進歩を刺激する。
論文 参考訳(メタデータ) (2025-05-20T08:16:37Z) - USDRL: Unified Skeleton-Based Dense Representation Learning with Multi-Grained Feature Decorrelation [24.90512145836643]
本稿では,特徴デコレーションに基づく統一骨格に基づくDense Representation Learningフレームワークを提案する。
我々のアプローチは現在のSOTA(State-of-the-art)アプローチよりも大幅に優れています。
論文 参考訳(メタデータ) (2024-12-12T12:20:27Z) - Where Do We Stand with Implicit Neural Representations? A Technical and Performance Survey [16.89460694470542]
Inlicit Neural Representation (INR) は知識表現のパラダイムとして登場した。
INRは、データを連続的な暗黙の関数としてモデル化するために多層パーセプトロン(MLP)を利用する。
この調査では、アクティベーション機能、位置エンコーディング、統合戦略、ネットワーク構造という4つの重要な領域に分類する明確な分類法を紹介した。
論文 参考訳(メタデータ) (2024-11-06T06:14:24Z) - Persistent Topological Features in Large Language Models [0.6597195879147556]
トポロジカルな特徴である$p$次元の穴が層全体に持続し、進化していくかを測定するトポロジカル記述子を導入する。
このことは、プロンプトがどのように再配置され、それらの相対的な位置が表現空間で変化するかという統計的視点を与える。
ショーケースアプリケーションとして、レイヤプルーニングの基準を確立するためにzigzag Persistenceを使用し、最先端の手法に匹敵する結果を得る。
論文 参考訳(メタデータ) (2024-10-14T19:46:23Z) - An Information Compensation Framework for Zero-Shot Skeleton-based Action Recognition [49.45660055499103]
ゼロショットの人間の骨格に基づく行動認識は、トレーニング中に見られるカテゴリ外の行動を認識するモデルを構築することを目的としている。
従来の研究では、シーケンスの視覚的空間分布と意味的空間分布の整合性に焦点が当てられていた。
強固で頑健な表現を得るために,新たな損失関数サンプリング手法を提案する。
論文 参考訳(メタデータ) (2024-06-02T06:53:01Z) - SkeleTR: Towrads Skeleton-based Action Recognition in the Wild [86.03082891242698]
SkeleTRは骨格に基づく行動認識のための新しいフレームワークである。
まず、グラフ畳み込みによる各骨格配列の人体内骨格力学をモデル化する。
次に、スタック化されたTransformerエンコーダを使用して、一般的なシナリオにおけるアクション認識に重要な人物のインタラクションをキャプチャする。
論文 参考訳(メタデータ) (2023-09-20T16:22:33Z) - One-Shot Action Recognition via Multi-Scale Spatial-Temporal Skeleton
Matching [77.6989219290789]
ワンショットスケルトン行動認識は、単一のトレーニングサンプルでスケルトン行動認識モデルを学ぶことを目的としている。
本稿では,マルチスケールな時空間特徴マッチングによる骨格行動認識を行う新しい一発骨格行動認識手法を提案する。
論文 参考訳(メタデータ) (2023-07-14T11:52:10Z) - Adaptive Local-Component-aware Graph Convolutional Network for One-shot
Skeleton-based Action Recognition [54.23513799338309]
骨格に基づく行動認識のための適応的局所成分認識グラフ畳み込みネットワークを提案する。
我々の手法はグローバルな埋め込みよりも強力な表現を提供し、我々のモデルが最先端に到達するのに役立ちます。
論文 参考訳(メタデータ) (2022-09-21T02:33:07Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z) - PYSKL: Towards Good Practices for Skeleton Action Recognition [77.87404524458809]
PYSKLは、PyTorchをベースとした骨格ベースの行動認識のためのオープンソースのツールボックスである。
有効性と効率性の比較を容易にするため、統一されたフレームワークの下で6つの異なるアルゴリズムを実装している。
PYSKLは、9つのスケルトンベースのアクション認識ベンチマークのトレーニングとテストをサポートし、そのうち8つで最先端の認識性能を達成する。
論文 参考訳(メタデータ) (2022-05-19T09:58:32Z) - Towards a Deeper Understanding of Skeleton-based Gait Recognition [4.812321790984493]
近年、ほとんどの歩行認識法は、人のシルエットを使って歩行の特徴を抽出している。
モデルに基づく手法はこれらの問題に悩まされず、身体関節の時間運動を表現することができる。
本研究では,高次入力と残差ネットワークを組み合わせたグラフ畳み込みネットワーク(GCN)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2022-04-16T18:23:37Z) - Skeleton-Based Mutually Assisted Interacted Object Localization and
Human Action Recognition [111.87412719773889]
本研究では,骨格データに基づく「相互作用対象の局所化」と「人間の行動認識」のための共同学習フレームワークを提案する。
本手法は,人間の行動認識のための最先端の手法を用いて,最高の,あるいは競争的な性能を実現する。
論文 参考訳(メタデータ) (2021-10-28T10:09:34Z) - UNIK: A Unified Framework for Real-world Skeleton-based Action
Recognition [11.81043814295441]
UNIKは、データセットをまたいで一般化できる新しい骨格に基づく行動認識手法である。
実世界のビデオにおける行動認識のクロスドメイン一般化可能性について検討するため,提案したUNIKと同様に最先端のアプローチを再評価する。
その結果,提案したUNIKは,Poseticsを事前学習した上で,4つのターゲットアクション分類データセットに転送した場合に,最先端の処理性能を向上することがわかった。
論文 参考訳(メタデータ) (2021-07-19T02:00:28Z) - Revisiting Skeleton-based Action Recognition [107.08112310075114]
PoseC3Dは骨格に基づく行動認識の新しいアプローチであり、代わりに人間の骨格のベース表現としてグラフシーケンスを積み重ねる3Dヒートマップに依存している。
4つの挑戦的なデータセットにおいて、PoseC3Dは、スケルトン上で単独で使用し、RGBモダリティと組み合わせることで、常に優れたパフォーマンスを得る。
論文 参考訳(メタデータ) (2021-04-28T06:32:17Z) - Modeling long-term interactions to enhance action recognition [81.09859029964323]
本稿では,フレームレベルと時間レベルの両方でオブジェクト間の相互作用のセマンティクスを利用する,エゴセントリックなビデオのアンダースタンドアクションに対する新しいアプローチを提案する。
ユーザの手とほぼ対応するプライマリ領域と、相互作用するオブジェクトに対応する可能性のあるセカンダリ領域のセットを入力として、領域ベースのアプローチを使用する。
提案手法は, 標準ベンチマークの動作認識において, 最先端技術よりも優れている。
論文 参考訳(メタデータ) (2021-04-23T10:08:15Z) - Unifying Graph Embedding Features with Graph Convolutional Networks for
Skeleton-based Action Recognition [18.001693718043292]
本稿では,人行動認識のためのグラフ畳み込みネットワークに15のグラフ埋め込み機能を組み込んだ新しいフレームワークを提案する。
我々のモデルは,NTU-RGB+D,Kineetics,SYSU-3Dという3つの大規模データセットで検証されている。
論文 参考訳(メタデータ) (2020-03-06T02:31:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。