論文の概要: Hand gesture detection in tests performed by older adults
- arxiv url: http://arxiv.org/abs/2110.14461v2
- Date: Fri, 29 Oct 2021 00:48:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-02 02:32:24.187972
- Title: Hand gesture detection in tests performed by older adults
- Title(参考訳): 高齢者における手のジェスチャー検出
- Authors: Guan Huang and Son N. Tran and Quan Bai and Jane Alty
- Abstract要約: 我々は、年齢に伴う手の動きの特徴を分析するオンラインテストを開発している。
手の動きの特徴を得るために、参加者は自分のコンピュータカメラを使って様々な手の動きを行うよう依頼される。
特に高齢者を対象に,高品質な手動動画データを収集することは困難である。
- 参考スコア(独自算出の注目度): 9.00837522898458
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Our team are developing a new online test that analyses hand movement
features associated with ageing that can be completed remotely from the
research centre. To obtain hand movement features, participants will be asked
to perform a variety of hand gestures using their own computer cameras.
However, it is challenging to collect high quality hand movement video data,
especially for older participants, many of whom have no IT background. During
the data collection process, one of the key steps is to detect whether the
participants are following the test instructions correctly and also to detect
similar gestures from different devices. Furthermore, we need this process to
be automated and accurate as we expect many thousands of participants to
complete the test. We have implemented a hand gesture detector to detect the
gestures in the hand movement tests and our detection mAP is 0.782 which is
better than the state-of-the-art. In this research, we have processed 20,000
images collected from hand movement tests and labelled 6,450 images to detect
different hand gestures in the hand movement tests. This paper has the
following three contributions. Firstly, we compared and analysed the
performance of different network structures for hand gesture detection.
Secondly, we have made many attempts to improve the accuracy of the model and
have succeeded in improving the classification accuracy for similar gestures by
implementing attention layers. Thirdly, we have created two datasets and
included 20 percent of blurred images in the dataset to investigate how
different network structures were impacted by noisy data, our experiments have
also shown our network has better performance on the noisy dataset.
- Abstract(参考訳): 我々のチームは、研究センターから遠隔で完了できる老化に伴う手の動きの特徴を分析する新しいオンラインテストを開発している。
手の動きの特徴を得るために、参加者は自分のコンピューターカメラを使って様々な手のジェスチャーを依頼される。
しかし、特にitのバックグラウンドを持たない高齢者を対象に、高品質な手の動き動画データを集めることは困難である。
データ収集プロセスの間、重要なステップの1つは、参加者がテスト手順を正しく守っているかどうかを検知し、異なるデバイスから同様のジェスチャーを検出することである。
さらに、何千人もの参加者がテストの完了を期待するので、このプロセスは自動化され、正確になる必要があります。
また,手の動きを検知するハンドジェスチャ検出装置を実装し,その検出マップは0.782であり,最新技術よりも優れている。
本研究では,手の動きテストから収集した2万枚の画像を処理し,手の動きの異なる手の動きを検出するために6450枚の画像にラベル付けした。
本論文には以下の3つの貢献がある。
まず,ハンドジェスチャ検出のための異なるネットワーク構造の性能を比較分析した。
第2に,モデルの精度を向上させる試みを数多く行ない,注意層を実装することで,同様のジェスチャの分類精度の向上に成功している。
第3に、私たちは2つのデータセットを作成し、そのデータセットにぼやけた画像の20%を含んで、ノイズの多いデータによって異なるネットワーク構造がどのように影響を受けるかを調査しました。
関連論文リスト
- Learning Visuotactile Skills with Two Multifingered Hands [80.99370364907278]
マルチフィンガーハンドとバイソタクティブルデータを用いたバイマニアルシステムを用いて,人間の実演からの学習を探索する。
以上の結果から,バイスオタクティブルデータからの両指多指操作における有望な進歩が示唆された。
論文 参考訳(メタデータ) (2024-04-25T17:59:41Z) - Agile gesture recognition for capacitive sensing devices: adapting
on-the-job [55.40855017016652]
本システムでは, コンデンサセンサからの信号を手の動き認識器に組み込んだ手動作認識システムを提案する。
コントローラは、着用者5本の指それぞれからリアルタイム信号を生成する。
機械学習技術を用いて時系列信号を解析し,500ms以内で5本の指を表現できる3つの特徴を同定する。
論文 参考訳(メタデータ) (2023-05-12T17:24:02Z) - Real-Time Hand Gesture Identification in Thermal Images [0.0]
我々のシステムは、フレーム内の複数のハンド領域を処理し、リアルタイムアプリケーションで高速に処理することができる。
ジェスチャー10のサーマルイメージデータセットを新たに収集し,手動作認識精度97%を報告した。
論文 参考訳(メタデータ) (2023-03-04T05:02:35Z) - Simultaneous prediction of hand gestures, handedness, and hand keypoints
using thermal images [0.6087960723103347]
赤外線カメラで捉えたサーマルデータを用いて手指のジェスチャー分類,手指検出,手指キーポイントの局所化を同時に行う手法を提案する。
提案手法は,共有エンコーダデコーダ層を含む新しい深層マルチタスク学習アーキテクチャを用いて,各タスクに専用の3つのブランチを付加する。
論文 参考訳(メタデータ) (2023-03-02T19:25:40Z) - Efficient Gesture Recognition for the Assistance of Visually Impaired
People using Multi-Head Neural Networks [5.883916678819684]
本稿では,視覚障害者支援を目的とした手ジェスチャーによって制御されるモバイルデバイスの対話型システムを提案する。
このシステムにより、ユーザーはシンプルな静的、ダイナミックな手の動きをすることでデバイスと対話できる。
各ジェスチャーは、オブジェクト認識、シーン記述、イメージスケーリングなど、システム内の異なるアクションをトリガーする。
論文 参考訳(メタデータ) (2022-05-14T06:01:47Z) - Learning to Disambiguate Strongly Interacting Hands via Probabilistic
Per-pixel Part Segmentation [84.28064034301445]
自己相似性と、それぞれの手にピクセル観察を割り当てるあいまいさは、最終的な3Dポーズエラーの大きな原因である。
1つの単眼画像から2つの手の3次元ポーズを推定する新しい手法であるDIGITを提案する。
提案手法は,InterHand2.6Mデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2021-07-01T13:28:02Z) - SHREC 2021: Track on Skeleton-based Hand Gesture Recognition in the Wild [62.450907796261646]
手のジェスチャーの認識は、ソフトウェアによって推定される手の骨格のストリームから直接行うことができる。
最近のスケルトンからのジェスチャーや行動認識の進歩にもかかわらず、現在の最先端技術が現実のシナリオでどの程度うまく機能するかは明らかではない。
本稿では,SHREC 2021: Track on Skeleton-based Hand Gesture Recognition in the Wild contestについて述べる。
論文 参考訳(メタデータ) (2021-06-21T10:57:49Z) - Where is my hand? Deep hand segmentation for visual self-recognition in
humanoid robots [129.46920552019247]
本稿では、画像からロボットの手を切り離すための畳み込みニューラルネットワーク(CNN)を提案する。
ヒューマノイドロボットVizzyの手のセグメンテーションのために,Mask-RCNNネットワークを微調整した。
論文 参考訳(メタデータ) (2021-02-09T10:34:32Z) - Understanding the hand-gestures using Convolutional Neural Networks and
Generative Adversial Networks [0.0]
このシステムは、リアルタイムハンドトラッキング、トレーニングジェスチャ、および畳み込みニューラルネットワークを用いたジェスチャー認識の3つのモジュールで構成されている。
アルファベットや数字を含む36のジェスチャーの語彙でテストされ、アプローチの有効性が検証されている。
論文 参考訳(メタデータ) (2020-11-10T02:20:43Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z) - Force myography benchmark data for hand gesture recognition and transfer
learning [5.110894308882439]
我々は、この分野の進歩に寄与し、18のユニークなジェスチャーをカバーした20人の人から市販のセンサーを用いて、ベンチマークデータセットを収集する。
このようなデータに対する1つのユースケースを示し、転送学習を利用して、他の複数の人物のデータを組み込むことにより、ジェスチャー認識の精度を向上させる方法を示す。
論文 参考訳(メタデータ) (2020-07-29T15:43:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。