論文の概要: Gesture Recognition from Skeleton Data for Intuitive Human-Machine
Interaction
- arxiv url: http://arxiv.org/abs/2008.11497v1
- Date: Wed, 26 Aug 2020 11:28:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 22:04:01.897537
- Title: Gesture Recognition from Skeleton Data for Intuitive Human-Machine
Interaction
- Title(参考訳): 直感的ヒューマンマシンインタラクションのためのスケルトンデータからのジェスチャー認識
- Authors: Andr\'e Br\'as, Miguel Sim\~ao, Pedro Neto
- Abstract要約: 本稿では,手工芸品の集合に基づく動的ジェスチャーのセグメント化と分類のためのアプローチを提案する。
ジェスチャー認識方法はスライディングウィンドウを適用し、空間次元と時間次元の両方から情報を抽出する。
最終的に、認識されたジェスチャーは、協調ロボットと対話するために使用される。
- 参考スコア(独自算出の注目度): 0.6875312133832077
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human gesture recognition has assumed a capital role in industrial
applications, such as Human-Machine Interaction. We propose an approach for
segmentation and classification of dynamic gestures based on a set of
handcrafted features, which are drawn from the skeleton data provided by the
Kinect sensor. The module for gesture detection relies on a feedforward neural
network which performs framewise binary classification. The method for gesture
recognition applies a sliding window, which extracts information from both the
spatial and temporal dimensions. Then we combine windows of varying durations
to get a multi-temporal scale approach and an additional gain in performance.
Encouraged by the recent success of Recurrent Neural Networks for time series
domains, we also propose a method for simultaneous gesture segmentation and
classification based on the bidirectional Long Short-Term Memory cells, which
have shown ability for learning the temporal relationships on long temporal
scales. We evaluate all the different approaches on the dataset published for
the ChaLearn Looking at People Challenge 2014. The most effective method
achieves a Jaccard index of 0.75, which suggests a performance almost on pair
with that presented by the state-of-the-art techniques. At the end, the
recognized gestures are used to interact with a collaborative robot.
- Abstract(参考訳): 人間のジェスチャー認識は、人間と機械の相互作用のような産業応用において重要な役割を担っている。
Kinectセンサによって提供される骨格データから得られた手作り特徴の集合に基づいて,動的ジェスチャーのセグメント化と分類を行う手法を提案する。
ジェスチャー検出用モジュールは、フレームワイドバイナリ分類を実行するフィードフォワードニューラルネットワークに依存している。
ジェスチャー認識方法はスライディングウィンドウを適用し、空間次元と時間次元の両方から情報を抽出する。
そして、異なる期間のウィンドウを組み合わせることで、マルチテンポラリスケールのアプローチと、さらなるパフォーマンス向上を実現します。
また,近年の時系列領域におけるリカレントニューラルネットワークの成功にともなう,双方向長短期記憶細胞に基づく同時ジェスチャー分割と分類手法を提案する。
私たちはchalearn looking at people challenge 2014で公開されたデータセット上のすべての異なるアプローチを評価します。
最も効果的な方法は、0.75のjaccardインデックスを達成している。
最後に、認識されたジェスチャーは、協調ロボットと対話するために使用される。
関連論文リスト
- Long-Distance Gesture Recognition using Dynamic Neural Networks [14.106548659369716]
本研究では,長距離からのジェスチャー認識のための新しい,高精度かつ効率的な手法を提案する。
動的ニューラルネットワークを使用して、入力センサーデータのジェスチャーを含む空間領域から特徴を抽出し、さらなる処理を行う。
LD-ConGR長距離データセット上での本手法の性能を示す。
論文 参考訳(メタデータ) (2023-08-09T00:56:38Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z) - A Spatio-Temporal Multilayer Perceptron for Gesture Recognition [70.34489104710366]
自律走行車におけるジェスチャー認識のための多層状態重み付きパーセプトロンを提案する。
提案手法の有望な性能を示すため,TCGおよびDrive&Actデータセットの評価を行った。
私たちは、そのリアルタイム能力と安定した実行を示すために、モデルを自動運転車にデプロイします。
論文 参考訳(メタデータ) (2022-04-25T08:42:47Z) - Joint-bone Fusion Graph Convolutional Network for Semi-supervised
Skeleton Action Recognition [65.78703941973183]
本稿では,CD-JBF-GCNをエンコーダとし,ポーズ予測ヘッドをデコーダとして使用する新しい相関駆動型ジョイントボーン・フュージョングラフ畳み込みネットワークを提案する。
具体的には、CD-JBF-GCは、関節ストリームと骨ストリームの間の運動伝達を探索することができる。
自己教師型トレーニング段階におけるポーズ予測に基づくオートエンコーダにより、未ラベルデータから動作表現を学習することができる。
論文 参考訳(メタデータ) (2022-02-08T16:03:15Z) - Metric-based multimodal meta-learning for human movement identification
via footstep recognition [3.300376360949452]
マルチモーダル・フレームワークを導入した新しいメトリック・ベース・ラーニング・アプローチについて述べる。
我々は,全方位センサシステムから得られた低感度データから汎用表現を学習する。
本研究は,マルチセンサデータに対するメトリクスに基づくコントラスト学習手法を用いて,データ不足の影響を緩和する。
論文 参考訳(メタデータ) (2021-11-15T18:46:14Z) - Efficient Modelling Across Time of Human Actions and Interactions [92.39082696657874]
3つの畳み込みニューラルネットワーク(CNND)における現在の固定サイズの時間的カーネルは、入力の時間的変動に対処するために改善できると主張している。
我々は、アーキテクチャの異なるレイヤにまたがる機能の違いを強化することで、アクションのクラス間でどのようにうまく対処できるかを研究する。
提案手法は、いくつかのベンチマークアクション認識データセットで評価され、競合する結果を示す。
論文 参考訳(メタデータ) (2021-10-05T15:39:11Z) - Learning Multi-Granular Spatio-Temporal Graph Network for Skeleton-based
Action Recognition [49.163326827954656]
骨格に基づく行動分類のための新しい多言語時空間グラフネットワークを提案する。
2つの枝の枝からなるデュアルヘッドグラフネットワークを開発し、少なくとも2つの時間分解能を抽出する。
3つの大規模データセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2021-08-10T09:25:07Z) - SHREC 2021: Track on Skeleton-based Hand Gesture Recognition in the Wild [62.450907796261646]
手のジェスチャーの認識は、ソフトウェアによって推定される手の骨格のストリームから直接行うことができる。
最近のスケルトンからのジェスチャーや行動認識の進歩にもかかわらず、現在の最先端技術が現実のシナリオでどの程度うまく機能するかは明らかではない。
本稿では,SHREC 2021: Track on Skeleton-based Hand Gesture Recognition in the Wild contestについて述べる。
論文 参考訳(メタデータ) (2021-06-21T10:57:49Z) - Memory Group Sampling Based Online Action Recognition Using Kinetic
Skeleton Features [4.674689979981502]
本稿では,オンライン行動認識問題を扱うための2つの中核的アイデアを提案する。
まず, 空間的特徴と時間的特徴を組み合わせることで, 行動の描写を行う。
次に,従来の動作フレームと現在の動作フレームを組み合わせたメモリグループサンプリング手法を提案する。
第3に、改良された1D CNNネットワークを使用して、サンプルフレームの機能をトレーニングし、テストする。
論文 参考訳(メタデータ) (2020-11-01T16:43:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。