論文の概要: NTU60-X: Towards Skeleton-based Recognition of Subtle Human Actions
- arxiv url: http://arxiv.org/abs/2101.11529v2
- Date: Fri, 29 Jan 2021 10:19:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-01 20:12:17.031099
- Title: NTU60-X: Towards Skeleton-based Recognition of Subtle Human Actions
- Title(参考訳): NTU60-X:Skeleton-based Recognition of Subtle Human Actions
- Authors: Anirudh Thatipelli, Neel Trivedi, Ravi Kiran Sarvadevabhatla
- Abstract要約: 我々は新しい骨格に基づく人間の行動データセット - NTU60-X を導入する。
各骨格の25個の関節に加えて、NTU60-Xデータセットには指と顔の関節が含まれており、よりリッチな骨格表現を可能にしている。
以上の結果から,NTU60-Xは,上記のボトルネックを克服し,総合的かつ最悪の行動カテゴリーにおける芸術的パフォーマンスの向上に有効であることが示唆された。
- 参考スコア(独自算出の注目度): 9.30315673109153
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The lack of fine-grained joints such as hand fingers is a fundamental
performance bottleneck for state of the art skeleton action recognition models
trained on the largest action recognition dataset, NTU-RGBD. To address this
bottleneck, we introduce a new skeleton based human action dataset - NTU60-X.
In addition to the 25 body joints for each skeleton as in NTU-RGBD, NTU60-X
dataset includes finger and facial joints, enabling a richer skeleton
representation. We appropriately modify the state of the art approaches to
enable training using the introduced dataset. Our results demonstrate the
effectiveness of NTU60-X in overcoming the aforementioned bottleneck and
improve state of the art performance, overall and on hitherto worst performing
action categories.
- Abstract(参考訳): 手指のようなきめ細かい関節の欠如は、最大のアクション認識データセットであるNTU-RGBDでトレーニングされたアートスケルトンアクション認識モデルの状態の基本的なパフォーマンスボトルネックである。
このボトルネックに対処するために、新しいスケルトンベースのヒューマンアクションデータセット、NTU60-Xを導入する。
NTU-RGBDのように各骨格の25個の体関節に加えて、NTU60-Xデータセットは指と顔の関節を含んでおり、より豊かな骨格表現を可能にします。
導入したデータセットを使用したトレーニングを可能にするために,アートアプローチの状態を適切に修正する。
以上の結果から,NTU60-Xは,上記のボトルネックを克服し,総合的かつ最悪の行動カテゴリーにおける芸術的パフォーマンスの向上に有効であることが示唆された。
関連論文リスト
- Mask and Compress: Efficient Skeleton-based Action Recognition in Continual Learning [29.561972935011877]
CHARON(Continual Human Action Recognition On skeletoNs)を導入し、効率的なフレームワーク内で動作しながら一貫した性能を維持する。
Split NTU-60 と提案した Split NTU-120 データセットに関する実験により,CHARON がこの領域に新たなベンチマークを設定できることが示されている。
論文 参考訳(メタデータ) (2024-07-01T15:48:49Z) - SkeletonMAE: Graph-based Masked Autoencoder for Skeleton Sequence
Pre-training [110.55093254677638]
我々はSkeleton Sequence Learning(SSL)という,効率的なスケルトンシーケンス学習フレームワークを提案する。
本論文では,SkeletonMAEという非対称なグラフベースのエンコーダデコーダ事前学習アーキテクチャを構築する。
我々のSSLは、さまざまなデータセットにまたがってうまく一般化し、最先端の自己教師型スケルトンベースのアクション認識手法よりも優れています。
論文 参考訳(メタデータ) (2023-07-17T13:33:11Z) - Pose-Guided Graph Convolutional Networks for Skeleton-Based Action
Recognition [32.07659338674024]
グラフ畳み込みネットワーク(GCN)は、人体骨格を空間的および時間的グラフとしてモデル化することができる。
本研究では,高性能な人行動認識のためのマルチモーダルフレームワークとして,ポーズ誘導型GCN(PG-GCN)を提案する。
このモジュールの中核となる考え方は、トレーニング可能なグラフを使用して、スケルトンストリームから、ポーズストリームの機能を集約することで、より堅牢な機能表現能力を持つネットワークを実現することだ。
論文 参考訳(メタデータ) (2022-10-10T02:08:49Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z) - SpatioTemporal Focus for Skeleton-based Action Recognition [66.8571926307011]
グラフ畳み込みネットワーク(GCN)は骨格に基づく行動認識において広く採用されている。
近年提案されている骨格に基づく行動認識法の性能は以下の要因によって制限されていると論じる。
近年の注目機構に着想を得て,アクション関連関係情報を取得するためのマルチグラインド・コンテキスト集中モジュール MCF を提案する。
論文 参考訳(メタデータ) (2022-03-31T02:45:24Z) - Joint-bone Fusion Graph Convolutional Network for Semi-supervised
Skeleton Action Recognition [65.78703941973183]
本稿では,CD-JBF-GCNをエンコーダとし,ポーズ予測ヘッドをデコーダとして使用する新しい相関駆動型ジョイントボーン・フュージョングラフ畳み込みネットワークを提案する。
具体的には、CD-JBF-GCは、関節ストリームと骨ストリームの間の運動伝達を探索することができる。
自己教師型トレーニング段階におけるポーズ予測に基づくオートエンコーダにより、未ラベルデータから動作表現を学習することができる。
論文 参考訳(メタデータ) (2022-02-08T16:03:15Z) - Learning Multi-Granular Spatio-Temporal Graph Network for Skeleton-based
Action Recognition [49.163326827954656]
骨格に基づく行動分類のための新しい多言語時空間グラフネットワークを提案する。
2つの枝の枝からなるデュアルヘッドグラフネットワークを開発し、少なくとも2つの時間分解能を抽出する。
3つの大規模データセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2021-08-10T09:25:07Z) - UNIK: A Unified Framework for Real-world Skeleton-based Action
Recognition [11.81043814295441]
UNIKは、データセットをまたいで一般化できる新しい骨格に基づく行動認識手法である。
実世界のビデオにおける行動認識のクロスドメイン一般化可能性について検討するため,提案したUNIKと同様に最先端のアプローチを再評価する。
その結果,提案したUNIKは,Poseticsを事前学習した上で,4つのターゲットアクション分類データセットに転送した場合に,最先端の処理性能を向上することがわかった。
論文 参考訳(メタデータ) (2021-07-19T02:00:28Z) - JOLO-GCN: Mining Joint-Centered Light-Weight Information for
Skeleton-Based Action Recognition [47.47099206295254]
本稿では,2ストリームグラフ畳み込みネットワークにおいて,人間のポーズスケルトンと共同中心の軽量情報を活用するための新しいフレームワークを提案する。
純粋なスケルトンベースのベースラインと比較して、このハイブリッドスキームは、計算とメモリのオーバーヘッドを低く保ちながら、性能を効果的に向上させる。
論文 参考訳(メタデータ) (2020-11-16T08:39:22Z) - Predictively Encoded Graph Convolutional Network for Noise-Robust
Skeleton-based Action Recognition [6.729108277517129]
本研究では,骨格特徴の雑音情報に対して頑健な骨格に基づく行動認識手法を提案する。
本手法は, 既存の最先端手法と比較して, スケルトンサンプルがノイズを受ける場合の優れた性能を実現する。
論文 参考訳(メタデータ) (2020-03-17T03:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。