論文の概要: JOLO-GCN: Mining Joint-Centered Light-Weight Information for
Skeleton-Based Action Recognition
- arxiv url: http://arxiv.org/abs/2011.07787v1
- Date: Mon, 16 Nov 2020 08:39:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-25 00:33:24.792782
- Title: JOLO-GCN: Mining Joint-Centered Light-Weight Information for
Skeleton-Based Action Recognition
- Title(参考訳): JOLO-GCN: 骨格に基づく行動認識のための光重み情報マイニング
- Authors: Jinmiao Cai, Nianjuan Jiang, Xiaoguang Han, Kui Jia, Jiangbo Lu
- Abstract要約: 本稿では,2ストリームグラフ畳み込みネットワークにおいて,人間のポーズスケルトンと共同中心の軽量情報を活用するための新しいフレームワークを提案する。
純粋なスケルトンベースのベースラインと比較して、このハイブリッドスキームは、計算とメモリのオーバーヘッドを低く保ちながら、性能を効果的に向上させる。
- 参考スコア(独自算出の注目度): 47.47099206295254
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Skeleton-based action recognition has attracted research attentions in recent
years. One common drawback in currently popular skeleton-based human action
recognition methods is that the sparse skeleton information alone is not
sufficient to fully characterize human motion. This limitation makes several
existing methods incapable of correctly classifying action categories which
exhibit only subtle motion differences. In this paper, we propose a novel
framework for employing human pose skeleton and joint-centered light-weight
information jointly in a two-stream graph convolutional network, namely,
JOLO-GCN. Specifically, we use Joint-aligned optical Flow Patches (JFP) to
capture the local subtle motion around each joint as the pivotal joint-centered
visual information. Compared to the pure skeleton-based baseline, this hybrid
scheme effectively boosts performance, while keeping the computational and
memory overheads low. Experiments on the NTU RGB+D, NTU RGB+D 120, and the
Kinetics-Skeleton dataset demonstrate clear accuracy improvements attained by
the proposed method over the state-of-the-art skeleton-based methods.
- Abstract(参考訳): 骨格に基づく行動認識は近年研究の注目を集めている。
現在一般的なスケルトンベースのヒューマンアクション認識方法の一般的な欠点は、スパーススケルトン情報だけでは人間の動きを完全に特徴付けるには不十分である。
この制限により、いくつかの既存の手法では微妙な動きの違いしか示さないアクションカテゴリを正しく分類できない。
本稿では,2ストリームグラフ畳み込みネットワーク,JOLO-GCNにおいて,人間のポーズスケルトンと共同中心の軽量情報を活用するための新しいフレームワークを提案する。
具体的には、関節周囲の局所的な微妙な動きを中心的な関節中心視覚情報として捉えるために、関節アライン・オプティカル・フロー・パッチ(JFP)を用いる。
純粋なスケルトンベースのベースラインと比較して、このハイブリッドスキームは、計算とメモリのオーバーヘッドを低く保ちながら、性能を効果的に向上させる。
NTU RGB+D, NTU RGB+D 120 および Kinetics-Skeleton データセットを用いた実験により, 現状の骨格法に比べて, 提案手法により得られた精度の向上が示された。
関連論文リスト
- Joint Temporal Pooling for Improving Skeleton-based Action Recognition [4.891381363264954]
骨格に基づく人間の行動認識において、時間プーリングは関節力学の関係を捉えるための重要なステップである。
本稿では,骨格に基づく行動認識を改善するために,新しいMAP法を提案する。
JMAPの有効性は、人気のあるNTU RGBD+120とPKU-MMDデータセットの実験を通じて検証されている。
論文 参考訳(メタデータ) (2024-08-18T04:40:16Z) - SkateFormer: Skeletal-Temporal Transformer for Human Action Recognition [25.341177384559174]
我々はSkateFormer(SkateFormer)と呼ばれる新しい手法を提案する。
SkateFormerは、さまざまなタイプの骨格と時間の関係に基づいて関節とフレームを分割する。
アクション適応的な方法で、アクション認識に不可欠なキージョイントやフレームに選択的にフォーカスすることができる。
論文 参考訳(メタデータ) (2024-03-14T15:55:53Z) - Adaptive Local-Component-aware Graph Convolutional Network for One-shot
Skeleton-based Action Recognition [54.23513799338309]
骨格に基づく行動認識のための適応的局所成分認識グラフ畳み込みネットワークを提案する。
我々の手法はグローバルな埋め込みよりも強力な表現を提供し、我々のモデルが最先端に到達するのに役立ちます。
論文 参考訳(メタデータ) (2022-09-21T02:33:07Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z) - Skeleton-based Action Recognition via Adaptive Cross-Form Learning [75.92422282666767]
スケルトンをベースとした行動認識は、骨格配列をアクションカテゴリに投影することを目的としており、配列は事前に検出された複数の点から導出される。
既存の方法は、相補的なキューのために多形骨格を活用することでGCNを改善する傾向にある。
本稿では,適応型クロスフォーム学習(ACFL)を提案する。
論文 参考訳(メタデータ) (2022-06-30T07:40:03Z) - Joint-bone Fusion Graph Convolutional Network for Semi-supervised
Skeleton Action Recognition [65.78703941973183]
本稿では,CD-JBF-GCNをエンコーダとし,ポーズ予測ヘッドをデコーダとして使用する新しい相関駆動型ジョイントボーン・フュージョングラフ畳み込みネットワークを提案する。
具体的には、CD-JBF-GCは、関節ストリームと骨ストリームの間の運動伝達を探索することができる。
自己教師型トレーニング段階におけるポーズ予測に基づくオートエンコーダにより、未ラベルデータから動作表現を学習することができる。
論文 参考訳(メタデータ) (2022-02-08T16:03:15Z) - Revisiting Skeleton-based Action Recognition [107.08112310075114]
PoseC3Dは骨格に基づく行動認識の新しいアプローチであり、代わりに人間の骨格のベース表現としてグラフシーケンスを積み重ねる3Dヒートマップに依存している。
4つの挑戦的なデータセットにおいて、PoseC3Dは、スケルトン上で単独で使用し、RGBモダリティと組み合わせることで、常に優れたパフォーマンスを得る。
論文 参考訳(メタデータ) (2021-04-28T06:32:17Z) - Richly Activated Graph Convolutional Network for Robust Skeleton-based
Action Recognition [22.90127409366107]
グラフ畳み込みネットワーク(GCN)は,すべての骨格関節に広がる十分な識別的特徴を探索するために提案される。
RA-GCNは標準のNTU RGB+D 60および120データセットで同等のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-08-09T19:06:29Z) - Predictively Encoded Graph Convolutional Network for Noise-Robust
Skeleton-based Action Recognition [6.729108277517129]
本研究では,骨格特徴の雑音情報に対して頑健な骨格に基づく行動認識手法を提案する。
本手法は, 既存の最先端手法と比較して, スケルトンサンプルがノイズを受ける場合の優れた性能を実現する。
論文 参考訳(メタデータ) (2020-03-17T03:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。