論文の概要: Skeleton Based Action Recognition using a Stacked Denoising Autoencoder
with Constraints of Privileged Information
- arxiv url: http://arxiv.org/abs/2003.05684v1
- Date: Thu, 12 Mar 2020 09:56:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 15:08:14.218117
- Title: Skeleton Based Action Recognition using a Stacked Denoising Autoencoder
with Constraints of Privileged Information
- Title(参考訳): 特権情報の制約付きスタック雑音自動エンコーダを用いたスケルトンに基づく行動認識
- Authors: Zhize Wu, Thomas Weise, Le Zou, Fei Sun, Ming Tan
- Abstract要約: 本稿では骨格再構築の観点から骨格表現を研究するための新しい手法を提案する。
特権情報に基づく学習の概念に基づいて,動作カテゴリと時間座標を重畳したデノナイジングオートエンコーダに統合する。
一時的ミスアライメントによる変動を軽減するため,新しい時間的登録法を提案する。
- 参考スコア(独自算出の注目度): 5.67220249825603
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, with the availability of cost-effective depth cameras coupled with
real-time skeleton estimation, the interest in skeleton-based human action
recognition is renewed. Most of the existing skeletal representation approaches
use either the joint location or the dynamics model. Differing from the
previous studies, we propose a new method called Denoising Autoencoder with
Temporal and Categorical Constraints (DAE_CTC)} to study the skeletal
representation in a view of skeleton reconstruction. Based on the concept of
learning under privileged information, we integrate action categories and
temporal coordinates into a stacked denoising autoencoder in the training
phase, to preserve category and temporal feature, while learning the hidden
representation from a skeleton. Thus, we are able to improve the discriminative
validity of the hidden representation. In order to mitigate the variation
resulting from temporary misalignment, a new method of temporal registration,
called Locally-Warped Sequence Registration (LWSR), is proposed for registering
the sequences of inter- and intra-class actions. We finally represent the
sequences using a Fourier Temporal Pyramid (FTP) representation and perform
classification using a combination of LWSR registration, FTP representation,
and a linear Support Vector Machine (SVM). The experimental results on three
action data sets, namely MSR-Action3D, UTKinect-Action, and Florence3D-Action,
show that our proposal performs better than many existing methods and
comparably to the state of the art.
- Abstract(参考訳): 近年,コスト効率のよい深度カメラとリアルタイムの骨格推定が組み合わさって,骨格に基づく人間の行動認識への関心が高まっている。
既存の骨格表現のアプローチのほとんどは、関節の位置または力学モデルを使用する。
本研究は, 骨格再建の観点から骨格表現を研究するために, 時間・カテゴリー制約を用いたDenoising Autoencoder (DAE_CTC) という新しい手法を提案する。
特権情報に基づく学習の概念に基づき,訓練段階において,動作カテゴリと時間座標を重畳した認知オートエンコーダに統合し,カテゴリと時間的特徴を保存しつつ,骨格から隠れた表現を学習する。
これにより,隠蔽表現の識別妥当性を向上させることができる。
一時的不一致に起因する変動を軽減するため,クラス間およびクラス内アクションのシーケンスを登録するために,ローカルウォードシーケンス登録 (lwsr) と呼ばれる新しい時間的登録方法が提案されている。
最終的に、フーリエ時間ピラミッド(FTP)表現を用いてシーケンスを表現し、LWSR登録、FTP表現、線形サポートベクトルマシン(SVM)の組み合わせを用いて分類を行う。
MSR-Action3D, UTKinect-Action, Florence3D-Actionの3つのアクションデータセットに対する実験結果から, 提案手法は既存の多くの手法よりも優れ, 技術状況に相容れない結果が得られた。
関連論文リスト
- An Information Compensation Framework for Zero-Shot Skeleton-based Action Recognition [49.45660055499103]
ゼロショットの人間の骨格に基づく行動認識は、トレーニング中に見られるカテゴリ外の行動を認識するモデルを構築することを目的としている。
従来の研究では、シーケンスの視覚的空間分布と意味的空間分布の整合性に焦点が当てられていた。
強固で頑健な表現を得るために,新たな損失関数サンプリング手法を提案する。
論文 参考訳(メタデータ) (2024-06-02T06:53:01Z) - Skeleton2vec: A Self-supervised Learning Framework with Contextualized
Target Representations for Skeleton Sequence [56.092059713922744]
予測対象として高レベルな文脈化機能を使用することで,優れた性能が得られることを示す。
具体的には、シンプルで効率的な3D行動表現学習フレームワークであるSkeleton2vecを提案する。
提案するSkeleton2vecは,従来の手法より優れ,最先端の結果が得られる。
論文 参考訳(メタデータ) (2024-01-01T12:08:35Z) - LAC: Latent Action Composition for Skeleton-based Action Segmentation [21.797658771678066]
骨格に基づくアクションセグメンテーションでは、トリミングされていないビデオの中で構成可能なアクションを認識する必要がある。
現在のアプローチでは、まずスケルトン配列から局所的な視覚的特徴を抽出し、時間モデルでそれらを処理し、フレームワイズアクションを分類することでこの問題を分離している。
骨格をベースとしたアクションセグメンテーションのための合成構成可能な動作から学習することを目的とした,新しい自己教師型フレームワークであるLatent Action composition (LAC)を提案する。
論文 参考訳(メタデータ) (2023-08-28T11:20:48Z) - Temporal-Viewpoint Transportation Plan for Skeletal Few-shot Action
Recognition [38.27785891922479]
Joint tEmporalとcAmera viewpoiNt alIgnmEntによる3Dスケルトンに基づく動作認識のためのFew-shot Learning Pipeline
論文 参考訳(メタデータ) (2022-10-30T11:46:38Z) - Adaptive Local-Component-aware Graph Convolutional Network for One-shot
Skeleton-based Action Recognition [54.23513799338309]
骨格に基づく行動認識のための適応的局所成分認識グラフ畳み込みネットワークを提案する。
我々の手法はグローバルな埋め込みよりも強力な表現を提供し、我々のモデルが最先端に到達するのに役立ちます。
論文 参考訳(メタデータ) (2022-09-21T02:33:07Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z) - SimMC: Simple Masked Contrastive Learning of Skeleton Representations
for Unsupervised Person Re-Identification [63.903237777588316]
SimMC(Simple Masked Contrastive Learning)フレームワークを提案する。
具体的には、各骨格配列内の骨格の特徴を完全に活用するために、まずマスク付きプロトタイプコントラスト学習(MPC)方式を考案する。
そこで我々は,サブシーケンス間のシーケンス内パターンの整合性を捉えるために,マスク付きシーケンス内コントラスト学習(MIC)を提案する。
論文 参考訳(メタデータ) (2022-04-21T00:19:38Z) - 3D Skeleton-based Few-shot Action Recognition with JEANIE is not so
Na\"ive [28.720272938306692]
We propose a Few-shot Learning pipeline for 3D skeleton-based action recognition by Joint tEmporal and cAmera viewpoiNt alIgnmEnt。
論文 参考訳(メタデータ) (2021-12-23T16:09:23Z) - Real-time Human Action Recognition Using Locally Aggregated
Kinematic-Guided Skeletonlet and Supervised Hashing-by-Analysis Model [30.435850177921086]
3次元動作認識には, 非常に複雑な調音, 大量のノイズ, 実装効率の低下という3つの問題がある。
本研究では,局所的に集約されたキネマティック誘導骨格 (LAKS) と教師付きハッシュ・バイ・アナリシス (SHA) モデルを組み合わせたリアルタイム3次元動作認識フレームワークを提案する。
MSRAction3D, UTKinectAction3DおよびFlorence3DActionデータセットの実験結果から, 提案手法は認識精度と実装効率の両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-05-24T14:46:40Z) - A Self-Supervised Gait Encoding Approach with Locality-Awareness for 3D
Skeleton Based Person Re-Identification [65.18004601366066]
3Dスケルトン配列内の歩行特徴による人物再識別(Re-ID)は、いくつかの利点を持つ新しい話題である。
本稿では、ラベルのない骨格データを利用して人物の歩行表現を学習できる自己教師付き歩行符号化手法を提案する。
論文 参考訳(メタデータ) (2020-09-05T16:06:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。