論文の概要: CNN+RNN Depth and Skeleton based Dynamic Hand Gesture Recognition
- arxiv url: http://arxiv.org/abs/2007.11983v1
- Date: Wed, 22 Jul 2020 10:25:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 23:04:51.260454
- Title: CNN+RNN Depth and Skeleton based Dynamic Hand Gesture Recognition
- Title(参考訳): cnn+rnn深度とスケルトンに基づく動的ハンドジェスチャ認識
- Authors: Kenneth Lai and Svetlana N. Yanushkevich
- Abstract要約: 本稿では、畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)の2つのディープラーニング技術のパワーを組み合わせることを提案する。
全体的な精度は85.46%で、ダイナミックハンドジェスチャ14/28データセットで達成されている。
- 参考スコア(独自算出の注目度): 3.0255457622022486
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human activity and gesture recognition is an important component of rapidly
growing domain of ambient intelligence, in particular in assisting living and
smart homes. In this paper, we propose to combine the power of two deep
learning techniques, the convolutional neural networks (CNN) and the recurrent
neural networks (RNN), for automated hand gesture recognition using both depth
and skeleton data. Each of these types of data can be used separately to train
neural networks to recognize hand gestures. While RNN were reported previously
to perform well in recognition of sequences of movement for each skeleton joint
given the skeleton information only, this study aims at utilizing depth data
and apply CNN to extract important spatial information from the depth images.
Together, the tandem CNN+RNN is capable of recognizing a sequence of gestures
more accurately. As well, various types of fusion are studied to combine both
the skeleton and depth information in order to extract temporal-spatial
information. An overall accuracy of 85.46% is achieved on the dynamic hand
gesture-14/28 dataset.
- Abstract(参考訳): 人間の活動とジェスチャー認識は、特に生活とスマートホームを支援するために急速に成長する環境知能の領域の重要な構成要素である。
本稿では,2つのディープラーニング技術である畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)を組み合わせて,深度データと骨格データの両方を用いた手の動きの自動認識を提案する。
これらのデータはそれぞれ、ニューラルネットワークを訓練して手のジェスチャーを認識するために、別々に使用できる。
rnnは前述したように骨格情報のみに基づいて各骨格関節の動き列の認識において良好に機能するが,本研究は深部データを利用して深部画像から重要な空間情報を抽出することを目的としている。
タンデムCNN+RNNは、より正確に一連のジェスチャーを認識することができる。
また, 骨と深部情報を組み合わせて時間空間情報を抽出するために, 様々な種類の融合について検討した。
全体的な精度は85.46%で、ダイナミックハンドジェスチャ14/28データセットで達成されている。
関連論文リスト
- Spiking representation learning for associative memories [0.0]
本稿では、教師なし表現学習と連想記憶操作を行う新しい人工スパイクニューラルネットワーク(SNN)を提案する。
モデルの構造は新皮質列状構造から派生し,隠れた表現を学習するためのフィードフォワードプロジェクションと,連想記憶を形成するための繰り返しプロジェクションを組み合わせたものである。
論文 参考訳(メタデータ) (2024-06-05T08:30:11Z) - CNN2GNN: How to Bridge CNN with GNN [59.42117676779735]
蒸留によりCNNとGNNを統一する新しいCNN2GNNフレームワークを提案する。
Mini-ImageNetにおける蒸留ブースターの2層GNNの性能は、ResNet152のような数十層を含むCNNよりもはるかに高い。
論文 参考訳(メタデータ) (2024-04-23T08:19:08Z) - Dynamic Gesture Recognition [0.0]
従来のコンピュータビジョンアルゴリズムの代わりに、機械学習を使って画像や動画を分類することができる。
このプロジェクトの目的は、畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)の共生を構築することである。
論文 参考訳(メタデータ) (2021-09-20T09:45:29Z) - HAN: An Efficient Hierarchical Self-Attention Network for Skeleton-Based
Gesture Recognition [73.64451471862613]
骨格に基づくジェスチャー認識のための効率的な階層型自己認識ネットワーク(HAN)を提案する。
ジョイント・セルフアテンション・モジュールは指の空間的特徴を捉え、指の自己アテンション・モジュールは手全体の特徴を集約するように設計されている。
実験の結果,3つのジェスチャ認識データセットに対して,計算複雑性がはるかに低い競合的な結果が得られることがわかった。
論文 参考訳(メタデータ) (2021-06-25T02:15:53Z) - A Study On the Effects of Pre-processing On Spatio-temporal Action
Recognition Using Spiking Neural Networks Trained with STDP [0.0]
ビデオ分類タスクにおいて,教師なし学習手法で訓練したSNNの行動を研究することが重要である。
本稿では,時間情報を静的な形式に変換し,遅延符号化を用いて視覚情報をスパイクに変換する手法を提案する。
スパイクニューラルネットワークを用いた行動認識における行動の形状と速度の類似性の効果を示す。
論文 参考訳(メタデータ) (2021-05-31T07:07:48Z) - Knowledge Distillation By Sparse Representation Matching [107.87219371697063]
本稿では,一方の畳み込みネットワーク(cnn)から他方へ,スパース表現を用いて中間知識を伝達するスパース表現マッチング(srm)を提案する。
勾配降下を利用して効率的に最適化し、任意のCNNにプラグアンドプレイで統合できるニューラルプロセッシングブロックとして定式化します。
実験の結果,教師と生徒のネットワーク間のアーキテクチャの違いに頑健であり,複数のデータセットにまたがる他のkd技術よりも優れていた。
論文 参考訳(メタデータ) (2021-03-31T11:47:47Z) - A Two-stream Neural Network for Pose-based Hand Gesture Recognition [23.50938160992517]
近年,ポーズに基づくジェスチャー認識が広く研究されている。
本稿では,グラフ畳み込みネットワーク(sagcn)を1ストリームとする2ストリームニューラルネットワークを提案する。
残差接続強化Bi-IndRNNは、時間モデリングのための双方向処理機能を備えたIndRNNを拡張する。
論文 参考訳(メタデータ) (2021-01-22T03:22:26Z) - Spatio-Temporal Inception Graph Convolutional Networks for
Skeleton-Based Action Recognition [126.51241919472356]
我々はスケルトンに基づく行動認識のためのシンプルで高度にモジュール化されたグラフ畳み込みネットワークアーキテクチャを設計する。
ネットワークは,空間的および時間的経路から多粒度情報を集約するビルディングブロックを繰り返すことで構築される。
論文 参考訳(メタデータ) (2020-11-26T14:43:04Z) - Continuous Emotion Recognition with Spatiotemporal Convolutional Neural
Networks [82.54695985117783]
In-theld でキャプチャした長いビデオシーケンスを用いて,持続的な感情認識のための最先端のディープラーニングアーキテクチャの適合性を検討する。
我々は,2D-CNNと長期記憶ユニットを組み合わせた畳み込みリカレントニューラルネットワークと,2D-CNNモデルの微調整時の重みを膨らませて構築した膨らませた3D-CNNモデルを開発した。
論文 参考訳(メタデータ) (2020-11-18T13:42:05Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Human Activity Recognition using Multi-Head CNN followed by LSTM [1.8830374973687412]
本研究では,CNNとLSTMを用いた新しい身体活動認識法を提案する。
提案手法を用いて,従来の機械学習アルゴリズムや他のディープニューラルネットワークアルゴリズムに匹敵する最先端の精度を実現する。
論文 参考訳(メタデータ) (2020-02-21T14:29:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。