論文の概要: A Survey on 3D Skeleton-Based Action Recognition Using Learning Method
- arxiv url: http://arxiv.org/abs/2002.05907v1
- Date: Fri, 14 Feb 2020 08:12:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 04:59:46.983104
- Title: A Survey on 3D Skeleton-Based Action Recognition Using Learning Method
- Title(参考訳): 学習手法を用いた3次元骨格に基づく行動認識に関する調査
- Authors: Bin Ren, Mengyuan Liu, Runwei Ding, Hong Liu
- Abstract要約: 3Dスケルトンに基づく行動認識は、スケルトンが潜在的に有利なため、コンピュータビジョンにおいて活発な話題となっている。
この調査はまず,行動認識の必要性と3次元骨格データの重要性を強調した。
次に、リカレントニューラルネットワーク(RNN)、畳み込みニューラルネットワーク(CNN)、グラフ畳み込みニューラルネットワーク(GCN)に基づく主ストリーム動作認識技術について概説する。
- 参考スコア(独自算出の注目度): 20.865811389226234
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D skeleton-based action recognition, owing to the latent advantages of
skeleton, has been an active topic in computer vision. As a consequence, there
are lots of impressive works including conventional handcraft feature based and
learned feature based have been done over the years. However, previous surveys
about action recognition mostly focus on the video or RGB data dominated
methods, and the scanty existing reviews related to skeleton data mainly
indicate the representation of skeleton data or performance of some classic
techniques on a certain dataset. Besides, though deep learning methods has been
applied to this field for years, there is no related reserach concern about an
introduction or review from the perspective of deep learning architectures. To
break those limitations, this survey firstly highlight the necessity of action
recognition and the significance of 3D-skeleton data. Then a comprehensive
introduction about Recurrent Neural Network(RNN)-based, Convolutional Neural
Network(CNN)-based and Graph Convolutional Network(GCN)-based main stream
action recognition techniques are illustrated in a data-driven manner. Finally,
we give a brief talk about the biggest 3D skeleton dataset NTU-RGB+D and its
new edition called NTU-RGB+D 120, accompanied with several existing top rank
algorithms within those two datasets. To our best knowledge, this is the first
research which give an overall discussion over deep learning-based action
recognitin using 3D skeleton data.
- Abstract(参考訳): 3Dスケルトンに基づく行動認識は、スケルトンが潜在的に有利なため、コンピュータビジョンにおいて活発な話題となっている。
その結果,従来の手工芸的特徴と学習的特徴を含む印象的な作品が長年にわたって行われてきた。
しかし、以前の行動認識に関する調査は、主にビデオやRGBデータに重点を置いており、骨格データに関連する既存のレビューは、主に特定のデータセット上での骨格データの表現や一部の古典的テクニックのパフォーマンスを示している。
また、深層学習手法は長年にわたってこの分野に適用されてきたが、深層学習アーキテクチャの観点からの紹介やレビューに関して、関連する懸念はない。
これらの限界を打破するために、この調査はまず行動認識の必要性と3次元骨格データの重要性を強調した。
次に、リカレントニューラルネットワーク(RNN)、畳み込みニューラルネットワーク(CNN)、グラフ畳み込みニューラルネットワーク(GCN)に基づくメインストリーム動作認識技術について、データ駆動方式で概説する。
最後に、最大の3DスケルトンデータセットであるNTU-RGB+Dと、その新しいエディションであるNTU-RGB+D 120について、いくつかの既存のトップランクアルゴリズムを伴って、簡単な講演を行う。
われわれの知る限り、これは3Dスケルトンデータを用いたディープラーニングに基づく行動認識に関する総合的な議論を行う最初の研究である。
関連論文リスト
- Improving Video Violence Recognition with Human Interaction Learning on
3D Skeleton Point Clouds [88.87985219999764]
我々は骨格点の新たな視点からビデオ暴力認識法を開発した。
まず、ビデオから抽出した人間の配列から3Dスケルトン点雲を定式化する。
そして、これらの3Dスケルトン点雲上で相互作用学習を行う。
論文 参考訳(メタデータ) (2023-08-26T12:55:18Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z) - Joint-bone Fusion Graph Convolutional Network for Semi-supervised
Skeleton Action Recognition [65.78703941973183]
本稿では,CD-JBF-GCNをエンコーダとし,ポーズ予測ヘッドをデコーダとして使用する新しい相関駆動型ジョイントボーン・フュージョングラフ畳み込みネットワークを提案する。
具体的には、CD-JBF-GCは、関節ストリームと骨ストリームの間の運動伝達を探索することができる。
自己教師型トレーニング段階におけるポーズ予測に基づくオートエンコーダにより、未ラベルデータから動作表現を学習することができる。
論文 参考訳(メタデータ) (2022-02-08T16:03:15Z) - Learning Multi-Granular Spatio-Temporal Graph Network for Skeleton-based
Action Recognition [49.163326827954656]
骨格に基づく行動分類のための新しい多言語時空間グラフネットワークを提案する。
2つの枝の枝からなるデュアルヘッドグラフネットワークを開発し、少なくとも2つの時間分解能を抽出する。
3つの大規模データセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2021-08-10T09:25:07Z) - UNIK: A Unified Framework for Real-world Skeleton-based Action
Recognition [11.81043814295441]
UNIKは、データセットをまたいで一般化できる新しい骨格に基づく行動認識手法である。
実世界のビデオにおける行動認識のクロスドメイン一般化可能性について検討するため,提案したUNIKと同様に最先端のアプローチを再評価する。
その結果,提案したUNIKは,Poseticsを事前学習した上で,4つのターゲットアクション分類データセットに転送した場合に,最先端の処理性能を向上することがわかった。
論文 参考訳(メタデータ) (2021-07-19T02:00:28Z) - Unsupervised Learning of 3D Object Categories from Videos in the Wild [75.09720013151247]
オブジェクトインスタンスの大規模なコレクションの複数のビューからモデルを学ぶことに重点を置いています。
再構成を大幅に改善するワープコンディショニングレイ埋め込み(WCR)と呼ばれる新しいニューラルネットワーク設計を提案する。
本評価は,既存のベンチマークを用いた複数の深部単眼再構成ベースラインに対する性能改善を示す。
論文 参考訳(メタデータ) (2021-03-30T17:57:01Z) - Spatio-Temporal Inception Graph Convolutional Networks for
Skeleton-Based Action Recognition [126.51241919472356]
我々はスケルトンに基づく行動認識のためのシンプルで高度にモジュール化されたグラフ畳み込みネットワークアーキテクチャを設計する。
ネットワークは,空間的および時間的経路から多粒度情報を集約するビルディングブロックを繰り返すことで構築される。
論文 参考訳(メタデータ) (2020-11-26T14:43:04Z) - KShapeNet: Riemannian network on Kendall shape space for Skeleton based
Action Recognition [7.183483982542308]
骨格に基づく行動認識のための幾何学的深層学習手法を提案する。
骨格はまずケンドールの形状空間上の軌跡としてモデル化され、次に線型接空間に写像される。
結果として得られた構造化データは、剛性および非剛性変換を最適化するレイヤを含むディープラーニングアーキテクチャに供給される。
論文 参考訳(メタデータ) (2020-11-24T10:14:07Z) - Unifying Graph Embedding Features with Graph Convolutional Networks for
Skeleton-based Action Recognition [18.001693718043292]
本稿では,人行動認識のためのグラフ畳み込みネットワークに15のグラフ埋め込み機能を組み込んだ新しいフレームワークを提案する。
我々のモデルは,NTU-RGB+D,Kineetics,SYSU-3Dという3つの大規模データセットで検証されている。
論文 参考訳(メタデータ) (2020-03-06T02:31:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。