論文の概要: Parts-Mamba: Augmenting Joint Context with Part-Level Scanning for Occluded Human Skeleton
- arxiv url: http://arxiv.org/abs/2511.16860v1
- Date: Fri, 21 Nov 2025 00:08:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-24 18:08:18.846081
- Title: Parts-Mamba: Augmenting Joint Context with Part-Level Scanning for Occluded Human Skeleton
- Title(参考訳): Parts-Mamba: 閉塞したヒト骨格に対する部分レベルスキャンによる関節コンテキストの増強
- Authors: Tianyi Shen, Huijuan Xu, Nilesh Ahuja, Omesh Tickoo, Philip Shin, Vijaykrishnan Narayanan,
- Abstract要約: Parts-MambaはGCN-Mambaのハイブリッドモデルである。
提案手法は,NTU RGB+D 60およびNTU RGB+D 120データセットを用いて評価し,最大12.9%の精度向上を実現した。
- 参考スコア(独自算出の注目度): 10.855272661415578
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Skeleton action recognition involves recognizing human action from human skeletons. The use of graph convolutional networks (GCNs) has driven major advances in this recognition task. In real-world scenarios, the captured skeletons are not always perfect or complete because of occlusions of parts of the human body or poor communication quality, leading to missing parts in skeletons or videos with missing frames. In the presence of such non-idealities, existing GCN models perform poorly due to missing local context. To address this limitation, we propose Parts-Mamba, a hybrid GCN-Mamba model designed to enhance the ability to capture and maintain contextual information from distant joints. The proposed Parts-Mamba model effectively captures part-specific information through its parts-specific scanning feature and preserves non-neighboring joint context via a parts-body fusion module. Our proposed model is evaluated on the NTU RGB+D 60 and NTU RGB+D 120 datasets under different occlusion settings, achieving up to 12.9% improvement in accuracy.
- Abstract(参考訳): 骨格の行動認識には、人間の骨格から人間の行動を認識することが含まれる。
グラフ畳み込みネットワーク(GCN)の使用は、この認識タスクに大きな進歩をもたらした。
現実のシナリオでは、捕獲された骨格は、人間の身体の一部の閉塞やコミュニケーションの質の悪いため、必ずしも完璧あるいは完全なものではない。
このような非理想の存在下では、既存のGCNモデルは、ローカルコンテキストが欠如しているため、パフォーマンスが良くない。
この制限に対処するため、遠隔関節からコンテキスト情報を捕捉・維持する能力を高めるために、ハイブリッドGCN-MambaモデルであるParts-Mambaを提案する。
提案するParts-Mambaモデルでは, 部品固有の走査機能により, 部品固有の情報を効果的に捕捉し, 部品本体融合モジュールによる非隣接関節コンテキストの保存を行う。
提案モデルでは,NTU RGB+D 60とNTU RGB+D 120のデータセットを異なる閉塞条件下で評価し,最大12.9%の精度向上を実現した。
関連論文リスト
- Integrating Human Parsing and Pose Network for Human Action Recognition [12.308394270240463]
動作認識のための新しいモダリティとして,人間の解析特徴マップを導入する。
本稿では,行動認識のためのヒューマンパーシングとポースネットワーク(IPP-Net)の統合を提案する。
IPP-Netは、スケルトンと人間のパース機能マップの両方を活用する最初の方法である。
論文 参考訳(メタデータ) (2023-07-16T07:58:29Z) - Learning Discriminative Representations for Skeleton Based Action
Recognition [49.45405879193866]
本稿では,骨格の識別表現を得るために,補助機能改善ヘッド(FRヘッド)を提案する。
提案したモデルでは,最先端手法による競合結果が得られ,あいまいなサンプルの識別に役立てることができる。
論文 参考訳(メタデータ) (2023-03-07T08:37:48Z) - Pose-Guided Graph Convolutional Networks for Skeleton-Based Action
Recognition [32.07659338674024]
グラフ畳み込みネットワーク(GCN)は、人体骨格を空間的および時間的グラフとしてモデル化することができる。
本研究では,高性能な人行動認識のためのマルチモーダルフレームワークとして,ポーズ誘導型GCN(PG-GCN)を提案する。
このモジュールの中核となる考え方は、トレーニング可能なグラフを使用して、スケルトンストリームから、ポーズストリームの機能を集約することで、より堅牢な機能表現能力を持つネットワークを実現することだ。
論文 参考訳(メタデータ) (2022-10-10T02:08:49Z) - Part-aware Prototypical Graph Network for One-shot Skeleton-based Action
Recognition [57.86960990337986]
ワンショットスケルトンに基づくアクション認識は、ベースクラスから新しいクラスへの変換可能な表現を学習する上で、ユニークな課題となる。
単発骨格に基づく行動認識のためのパートアウェアなプロトタイプ表現を提案する。
本手法の有効性を2つの公開骨格に基づく行動認識データセットに示す。
論文 参考訳(メタデータ) (2022-08-19T04:54:56Z) - SpatioTemporal Focus for Skeleton-based Action Recognition [66.8571926307011]
グラフ畳み込みネットワーク(GCN)は骨格に基づく行動認識において広く採用されている。
近年提案されている骨格に基づく行動認識法の性能は以下の要因によって制限されていると論じる。
近年の注目機構に着想を得て,アクション関連関係情報を取得するためのマルチグラインド・コンテキスト集中モジュール MCF を提案する。
論文 参考訳(メタデータ) (2022-03-31T02:45:24Z) - Joint-bone Fusion Graph Convolutional Network for Semi-supervised
Skeleton Action Recognition [65.78703941973183]
本稿では,CD-JBF-GCNをエンコーダとし,ポーズ予測ヘッドをデコーダとして使用する新しい相関駆動型ジョイントボーン・フュージョングラフ畳み込みネットワークを提案する。
具体的には、CD-JBF-GCは、関節ストリームと骨ストリームの間の運動伝達を探索することができる。
自己教師型トレーニング段階におけるポーズ予測に基づくオートエンコーダにより、未ラベルデータから動作表現を学習することができる。
論文 参考訳(メタデータ) (2022-02-08T16:03:15Z) - JOLO-GCN: Mining Joint-Centered Light-Weight Information for
Skeleton-Based Action Recognition [47.47099206295254]
本稿では,2ストリームグラフ畳み込みネットワークにおいて,人間のポーズスケルトンと共同中心の軽量情報を活用するための新しいフレームワークを提案する。
純粋なスケルトンベースのベースラインと比較して、このハイブリッドスキームは、計算とメモリのオーバーヘッドを低く保ちながら、性能を効果的に向上させる。
論文 参考訳(メタデータ) (2020-11-16T08:39:22Z) - Richly Activated Graph Convolutional Network for Robust Skeleton-based
Action Recognition [22.90127409366107]
グラフ畳み込みネットワーク(GCN)は,すべての骨格関節に広がる十分な識別的特徴を探索するために提案される。
RA-GCNは標準のNTU RGB+D 60および120データセットで同等のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-08-09T19:06:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。