論文の概要: Action Recognition with Domain Invariant Features of Skeleton Image
- arxiv url: http://arxiv.org/abs/2111.11250v1
- Date: Fri, 19 Nov 2021 08:05:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-23 15:01:50.905622
- Title: Action Recognition with Domain Invariant Features of Skeleton Image
- Title(参考訳): スケルトン画像の領域不変特徴を用いた行動認識
- Authors: Han Chen and Yifan Jiang and Hanseok Ko
- Abstract要約: そこで本研究では,行動認識のための対人訓練のための新しいCNNベースの手法を提案する。
異なる視角や対象からスケルトン画像の特徴を整列させるために,2段階のドメイン対角学習を導入する。
最先端の手法と比較して、競争力のある結果が得られる。
- 参考スコア(独自算出の注目度): 25.519217340328442
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to the fast processing-speed and robustness it can achieve,
skeleton-based action recognition has recently received the attention of the
computer vision community. The recent Convolutional Neural Network (CNN)-based
methods have shown commendable performance in learning spatio-temporal
representations for skeleton sequence, which use skeleton image as input to a
CNN. Since the CNN-based methods mainly encoding the temporal and skeleton
joints simply as rows and columns, respectively, the latent correlation related
to all joints may be lost caused by the 2D convolution. To solve this problem,
we propose a novel CNN-based method with adversarial training for action
recognition. We introduce a two-level domain adversarial learning to align the
features of skeleton images from different view angles or subjects,
respectively, thus further improve the generalization. We evaluated our
proposed method on NTU RGB+D. It achieves competitive results compared with
state-of-the-art methods and 2.4$\%$, 1.9$\%$ accuracy gain than the baseline
for cross-subject and cross-view.
- Abstract(参考訳): 高速な処理速度と堅牢性のため、骨格に基づく行動認識はコンピュータビジョンコミュニティの注目を集めている。
最近の畳み込みニューラルネットワーク(CNN)に基づく手法は,骨格画像をCNNへの入力として使用する骨格配列の時空間表現を学習する際の可換性を示している。
側頭骨と骨格の関節をそれぞれ行と列としてコードするCNN法では,2次元畳み込みにより,すべての関節に関する潜時的相関が失われる可能性がある。
そこで本研究では,行動認識のための対人訓練を用いた新しいCNN手法を提案する。
異なる視野角や対象からそれぞれ骨格画像の特徴を整列する2段階のドメイン対角学習を導入し、一般化をさらに改善する。
提案手法をNTU RGB+Dで評価した。
最先端の手法と比較して競争力のある結果が得られ、クロスサブジェクトとクロスビューのベースラインよりも2.4$\%$, 1.9$\%$精度が向上する。
関連論文リスト
- STEP CATFormer: Spatial-Temporal Effective Body-Part Cross Attention
Transformer for Skeleton-based Action Recognition [0.0]
グラフ畳み込み畳み込みネットワークは、どのように異なるトポロジを学習し、グローバルな時間的および局所的な時間的共同機能を効果的に集約するかに焦点を当てる。
CTR-GCN(Channel-wise Topology Refinement Graph Convolution)に基づく3つのチャネルワイズトロイグラフ畳み込みを提案する。
我々は,NTU RGB+D, NTU RGB+D 120データセット上での高性能な空間時間有効ボディアテンション変換器という,強力なグラフ畳み込みネットワークを開発した。
論文 参考訳(メタデータ) (2023-12-06T04:36:58Z) - Decoupled Mixup for Generalized Visual Recognition [71.13734761715472]
視覚認識のためのCNNモデルを学習するための新しい「デカップリング・ミクスアップ」手法を提案する。
本手法は,各画像を識別領域と雑音発生領域に分離し,これらの領域を均一に組み合わせてCNNモデルを訓練する。
実験結果から,未知のコンテキストからなるデータに対する本手法の高一般化性能を示す。
論文 参考訳(メタデータ) (2022-10-26T15:21:39Z) - Adaptive Local-Component-aware Graph Convolutional Network for One-shot
Skeleton-based Action Recognition [54.23513799338309]
骨格に基づく行動認識のための適応的局所成分認識グラフ畳み込みネットワークを提案する。
我々の手法はグローバルな埋め込みよりも強力な表現を提供し、我々のモデルが最先端に到達するのに役立ちます。
論文 参考訳(メタデータ) (2022-09-21T02:33:07Z) - Combining the Silhouette and Skeleton Data for Gait Recognition [13.345465199699]
2つの主要な歩行認識作品は外観ベースとモデルベースであり、シルエットと骨格からそれぞれ特徴を抽出する。
本稿では, シルエットを入力とするCNN系分岐と, 骨格を入力とするGCN系分岐を提案する。
GCNベースの分岐における歩行表現を改善するため、マルチスケールグラフ畳み込みを統合する完全連結グラフ畳み込み演算子を提案する。
論文 参考訳(メタデータ) (2022-02-22T03:21:51Z) - Joint-bone Fusion Graph Convolutional Network for Semi-supervised
Skeleton Action Recognition [65.78703941973183]
本稿では,CD-JBF-GCNをエンコーダとし,ポーズ予測ヘッドをデコーダとして使用する新しい相関駆動型ジョイントボーン・フュージョングラフ畳み込みネットワークを提案する。
具体的には、CD-JBF-GCは、関節ストリームと骨ストリームの間の運動伝達を探索することができる。
自己教師型トレーニング段階におけるポーズ予測に基づくオートエンコーダにより、未ラベルデータから動作表現を学習することができる。
論文 参考訳(メタデータ) (2022-02-08T16:03:15Z) - Learning Multi-Granular Spatio-Temporal Graph Network for Skeleton-based
Action Recognition [49.163326827954656]
骨格に基づく行動分類のための新しい多言語時空間グラフネットワークを提案する。
2つの枝の枝からなるデュアルヘッドグラフネットワークを開発し、少なくとも2つの時間分解能を抽出する。
3つの大規模データセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2021-08-10T09:25:07Z) - Spatio-Temporal Inception Graph Convolutional Networks for
Skeleton-Based Action Recognition [126.51241919472356]
我々はスケルトンに基づく行動認識のためのシンプルで高度にモジュール化されたグラフ畳み込みネットワークアーキテクチャを設計する。
ネットワークは,空間的および時間的経路から多粒度情報を集約するビルディングブロックを繰り返すことで構築される。
論文 参考訳(メタデータ) (2020-11-26T14:43:04Z) - JOLO-GCN: Mining Joint-Centered Light-Weight Information for
Skeleton-Based Action Recognition [47.47099206295254]
本稿では,2ストリームグラフ畳み込みネットワークにおいて,人間のポーズスケルトンと共同中心の軽量情報を活用するための新しいフレームワークを提案する。
純粋なスケルトンベースのベースラインと比較して、このハイブリッドスキームは、計算とメモリのオーバーヘッドを低く保ちながら、性能を効果的に向上させる。
論文 参考訳(メタデータ) (2020-11-16T08:39:22Z) - Progressive Spatio-Temporal Graph Convolutional Network for
Skeleton-Based Human Action Recognition [97.14064057840089]
本稿では,グラフ畳み込みネットワークのためのコンパクトで問題固有のネットワークを,段階的に自動的に見つける手法を提案する。
骨格に基づく人体行動認識のための2つのデータセットの実験結果から,提案手法は競争力あるいはより優れた分類性能を有することが示された。
論文 参考訳(メタデータ) (2020-11-11T09:57:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。