論文の概要: Tracking Hand Hygiene Gestures with Leap Motion Controller
- arxiv url: http://arxiv.org/abs/2109.00884v1
- Date: Wed, 11 Aug 2021 08:48:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-05 13:26:07.023325
- Title: Tracking Hand Hygiene Gestures with Leap Motion Controller
- Title(参考訳): leapモーションコントローラによる手の衛生的ジェスチャー追跡
- Authors: Rashmi Bakshi, Jane Courtney, Damon Berry, Graham Gavin
- Abstract要約: WHOによると、手洗いの過程は、明確に定義された2つの手書きの動的ジェスチャーの段階に分けられる。
本稿では,手洗いの専門家の映像をセグメント化して分析し,その特徴を抽出する。
3DジェスチャートラッカーであるLeap Motion Controller (LEAP) は、これらのステージに関連する手の特徴を追跡し、検出するために使用された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The process of hand washing, according to the WHO, is divided into stages
with clearly defined two handed dynamic gestures. In this paper, videos of hand
washing experts are segmented and analyzed with the goal of extracting their
corresponding features. These features can be further processed in software to
classify particular hand movements, determine whether the stages have been
successfully completed by the user and also assess the quality of washing.
Having identified the important features, a 3D gesture tracker, the Leap Motion
Controller (LEAP), was used to track and detect the hand features associated
with these stages. With the help of sequential programming and threshold
values, the hand features were combined together to detect the initiation and
completion of a sample WHO Stage 2 (Rub hands Palm to Palm). The LEAP provides
accurate raw positional data for tracking single hand gestures and two hands in
separation but suffers from occlusion when hands are in contact. Other than
hand hygiene the approaches shown here can be applied in other biomedical
applications requiring close hand gesture analysis.
- Abstract(参考訳): whoによると、手洗いのプロセスは、2つの手振りのダイナミックなジェスチャーを明確に定義した段階に分けられる。
本稿では,手洗いの専門家の映像をセグメント化して分析し,その特徴を抽出する。
これらの特徴をソフトウェアでさらに処理することで、特定の手の動きを分類し、ユーザが完了したかどうかを判断し、洗浄の質を評価することができる。
重要な特徴を特定した3dジェスチャートラッカーであるleap motion controller(leap)は、これらのステージに関連する手の特徴を追跡および検出するために使用された。
逐次プログラミングとしきい値の助けを借りて、手の特徴を組み合わせることで、WHOステージ2(Rub Hand Palm to Palm)の開始と完了を検知した。
LEAPは、片手ジェスチャーと2つの手を別々に追跡するための正確な生の位置情報を提供するが、手が接触したときは閉塞に悩まされる。
手動衛生以外に、ここで示すアプローチは、身近なジェスチャー分析を必要とする他のバイオメディカル応用にも適用できる。
関連論文リスト
- ManiDext: Hand-Object Manipulation Synthesis via Continuous Correspondence Embeddings and Residual-Guided Diffusion [36.9457697304841]
ManiDextは、手操作やポーズを把握するための階層的な拡散ベースの統合フレームワークである。
私たちの重要な洞察は、相互作用中の物体と手との接触関係を正確にモデル化することが重要であるということです。
本フレームワークは,まず,物体表面への接触マップと対応埋め込みを生成する。
これらの微粒な対応に基づき,拡散過程に反復的精錬プロセスを統合する新しいアプローチを導入する。
論文 参考訳(メタデータ) (2024-09-14T04:28:44Z) - Learning Visuotactile Skills with Two Multifingered Hands [80.99370364907278]
マルチフィンガーハンドとバイソタクティブルデータを用いたバイマニアルシステムを用いて,人間の実演からの学習を探索する。
以上の結果から,バイスオタクティブルデータからの両指多指操作における有望な進歩が示唆された。
論文 参考訳(メタデータ) (2024-04-25T17:59:41Z) - GRIP: Generating Interaction Poses Using Spatial Cues and Latent Consistency [57.9920824261925]
手は器用で多用途なマニピュレータであり、人間が物体や環境とどのように相互作用するかの中心である。
現実的な手オブジェクトの相互作用をモデル化することは、コンピュータグラフィックス、コンピュータビジョン、混合現実の応用において重要である。
GRIPは、体と物体の3次元運動を入力として取り、物体の相互作用の前、中、後の両方の両手の現実的な動きを合成する学習ベースの手法である。
論文 参考訳(メタデータ) (2023-08-22T17:59:51Z) - Im2Hands: Learning Attentive Implicit Representation of Interacting
Two-Hand Shapes [58.551154822792284]
Implicit Two Hands (Im2Hands) は、2つの相互作用する手の最初の暗黙の表現である。
Im2Handsは、両手と手と手と画像のコヒーレンシーの高い2つの手のきめ細かい幾何学を生成することができる。
両手再建におけるIm2Handsの有効性を, 関連手法と比較して実験的に実証した。
論文 参考訳(メタデータ) (2023-02-28T06:38:25Z) - 3D Interacting Hand Pose Estimation by Hand De-occlusion and Removal [85.30756038989057]
単一のRGB画像から3Dインタラクションハンドポーズを推定することは、人間の行動を理解するのに不可欠である。
本稿では,難易度の高い手ポーズ推定タスクを分解し,各手のポーズを別々に推定することを提案する。
実験の結果,提案手法は従来の手ポーズ推定手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2022-07-22T13:04:06Z) - On-device Real-time Hand Gesture Recognition [1.4658400971135652]
本稿では,1台のRGBカメラから予め定義された静的ジェスチャーを検知するデバイス上でのリアルタイム手ジェスチャー認識(HGR)システムを提案する。
ハンドスケルトントラッカーの基礎としてMediaPipe Handsを使用し、キーポイント精度を改善し、世界距離空間における3次元キーポイントの推定を追加する。
論文 参考訳(メタデータ) (2021-10-29T18:33:25Z) - Egocentric View Hand Action Recognition by Leveraging Hand Surface and
Hand Grasp Type [15.878905144552204]
このフレームワークは、手メッシュモデルの平均曲率を合成し、3次元空間における手表面形状を符号化する。
手のつかみタイプと手の平均曲率を用いることで,手の動き認識の性能が向上する。
論文 参考訳(メタデータ) (2021-09-08T17:12:02Z) - Hand Hygiene Video Classification Based on Deep Learning [0.0]
手洗いのジェスチャーと片手ジェスチャーを併用した頑健なデータセットのサブセット。
トレーニング済みのニューラルネットワークモデルであるRES Net 50は、リニアハンドの動き、手のひらから手のひらまで、指を挟んだ手のひらという3つのカテゴリの分類に使用されるイメージネットの重みを持つ。
論文 参考訳(メタデータ) (2021-08-18T12:56:07Z) - Feature Detection for Hand Hygiene Stages [0.0]
世界保健機関(WHO)のガイドラインでは、手を洗うための主要なステップが6つある。
本報告では, 頑健な手洗いデータセットを作成するためのアルミニウムリグ構造について詳述する。
ハンドポーズ抽出と特徴検出のための画像処理とコンピュータビジョンアルゴリズムの助けを借りた予備的な結果を示す。
論文 参考訳(メタデータ) (2021-08-06T09:21:03Z) - Learning to Disambiguate Strongly Interacting Hands via Probabilistic
Per-pixel Part Segmentation [84.28064034301445]
自己相似性と、それぞれの手にピクセル観察を割り当てるあいまいさは、最終的な3Dポーズエラーの大きな原因である。
1つの単眼画像から2つの手の3次元ポーズを推定する新しい手法であるDIGITを提案する。
提案手法は,InterHand2.6Mデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2021-07-01T13:28:02Z) - SHREC 2021: Track on Skeleton-based Hand Gesture Recognition in the Wild [62.450907796261646]
手のジェスチャーの認識は、ソフトウェアによって推定される手の骨格のストリームから直接行うことができる。
最近のスケルトンからのジェスチャーや行動認識の進歩にもかかわらず、現在の最先端技術が現実のシナリオでどの程度うまく機能するかは明らかではない。
本稿では,SHREC 2021: Track on Skeleton-based Hand Gesture Recognition in the Wild contestについて述べる。
論文 参考訳(メタデータ) (2021-06-21T10:57:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。