論文の概要: Feature Extraction and Prediction for Hand Hygiene Gestures with KNN
Algorithm
- arxiv url: http://arxiv.org/abs/2112.15085v1
- Date: Thu, 30 Dec 2021 14:56:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-04 01:02:01.744542
- Title: Feature Extraction and Prediction for Hand Hygiene Gestures with KNN
Algorithm
- Title(参考訳): knnアルゴリズムによる手の衛生的ジェスチャーの特徴抽出と予測
- Authors: Rashmi Bakshi
- Abstract要約: 本研究は手洗いの過程に関わる手振りの分析に焦点をあてる。
手の輪郭、手の遠心、最大の輪郭に沿った極端手点などの手の特徴を抽出する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work focuses upon the analysis of hand gestures involved in the process
of hand washing. There are six standard hand hygiene gestures for washing hands
as provided by World Health Organisation hand hygiene guidelines. In this
paper, hand features such as contours of hands, the centroid of the hands, and
extreme hand points along the largest contour are extracted with the use of the
computer vision library, OpenCV. These hand features are extracted for each
data frame in a hand hygiene video. A robust hand hygiene dataset of video
recordings was created in the project. A subset of this dataset is used in this
work. Extracted hand features are further grouped into classes based on the KNN
algorithm with a cross-fold validation technique for the classification and
prediction of the unlabelled data. A mean accuracy score of >95% is achieved
and proves that the KNN algorithm with an appropriate input value of K=5 is
efficient for classification. A complete dataset with six distinct hand hygiene
classes will be used with the KNN classifier for future work.
- Abstract(参考訳): 本研究は,手洗い作業に関わる手指ジェスチャーの分析に焦点をあてる。
世界保健機関の手衛生ガイドラインでは、手を洗うための標準的な手衛生ジェスチャーが6つある。
本論文では,コンピュータビジョンライブラリopencvを用いて,手輪郭,手中心,最大輪郭に沿った極端手点などの手の特徴を抽出する。
これらの手の特徴は、手衛生ビデオ内の各データフレームに対して抽出される。
このプロジェクトでは、ビデオ録画の堅牢な手衛生データセットが作成された。
この作業では、このデータセットのサブセットが使用されます。
抽出した手の特徴をKNNアルゴリズムに基づくクラスに分類し,非競合データの分類と予測のためのクロスフォールド検証手法を提案する。
平均精度スコアが95%に達し、K=5の適切な入力値を持つKNNアルゴリズムが分類に有効であることを証明した。
6つの異なる手衛生クラスを持つ完全なデータセットは、今後の作業のためにKNN分類器で使用される。
関連論文リスト
- HandDiff: 3D Hand Pose Estimation with Diffusion on Image-Point Cloud [60.47544798202017]
ハンドポーズ推定は、様々な人間とコンピュータの相互作用アプリケーションにおいて重要なタスクである。
本論文は,手形画像点雲上での正確な手ポーズを反復的に認知する拡散型手ポーズ推定モデルであるHandDiffを提案する。
実験の結果,提案したHandDiffは,4つの挑戦的なハンドポーズベンチマークデータセットにおいて,既存のアプローチよりも大幅に優れていた。
論文 参考訳(メタデータ) (2024-04-04T02:15:16Z) - Interacting Hand-Object Pose Estimation via Dense Mutual Attention [97.26400229871888]
3Dハンドオブジェクトのポーズ推定は多くのコンピュータビジョンアプリケーションの成功の鍵となる。
本研究では,手と物体間の微粒な依存関係をモデル化できる新しい相互注意機構を提案する。
提案手法は,高品質かつリアルタイムな推論速度で,物理的に妥当なポーズを生成できる。
論文 参考訳(メタデータ) (2022-11-16T10:01:33Z) - Hand Hygiene Assessment via Joint Step Segmentation and Key Action
Scorer [32.29065180155029]
ハンド衛生は世界保健機関(WHO)が提唱する6段階の手洗い法である。
ステップセグメンテーションとキーアクションスコアラを協調的に行うための,手指の精密な衛生評価のための,新たなきめ細かい学習フレームワークを提案する。
医療スタッフの監督のもと,300の動画シーケンスと微粒なアノテーションを含むビデオデータセットをコントリビュートする。
論文 参考訳(メタデータ) (2022-09-25T13:47:21Z) - HAR-GCNN: Deep Graph CNNs for Human Activity Recognition From Highly
Unlabeled Mobile Sensor Data [61.79595926825511]
正確な活動ラベルを含むバランスのとれたデータセットを取得するには、人間が正しく注釈を付け、リアルタイムで被験者の通常の活動に干渉する必要がある。
本研究では,HAR-GCCNモデルを提案する。HAR-GCCNは,時系列に隣接したセンサ測定の相関を利用して,不特定活動の正確なラベルを予測する。
Har-GCCNは、これまで使用されていたベースライン手法と比較して優れたパフォーマンスを示し、分類精度を25%改善し、異なるデータセットで最大68%向上した。
論文 参考訳(メタデータ) (2022-03-07T01:23:46Z) - Keypoint Message Passing for Video-based Person Re-Identification [106.41022426556776]
ビデオベースの人物再識別(re-ID)は、異なるカメラで捉えた人々のビデオスニペットをマッチングすることを目的とした、視覚監視システムにおいて重要な技術である。
既存の手法は主に畳み込みニューラルネットワーク(CNN)に基づいており、そのビルディングブロックは近隣のピクセルを一度に処理するか、あるいは3D畳み込みが時間情報のモデル化に使用される場合、人の動きによって生じるミスアライメントの問題に悩まされる。
本稿では,人間指向グラフ法を用いて,通常の畳み込みの限界を克服することを提案する。具体的には,人手指のキーポイントに位置する特徴を抽出し,時空間グラフとして接続する。
論文 参考訳(メタデータ) (2021-11-16T08:01:16Z) - CvS: Classification via Segmentation For Small Datasets [52.821178654631254]
本稿では,分類ラベルをセグメントマップの予測から導出する小型データセットのコスト効率の高い分類器であるCvSを提案する。
我々は,CvSが従来の手法よりもはるかに高い分類結果が得られることを示す多種多様な問題に対して,本フレームワークの有効性を評価する。
論文 参考訳(メタデータ) (2021-10-29T18:41:15Z) - Fine-grained Hand Gesture Recognition in Multi-viewpoint Hand Hygiene [3.588453140011797]
本稿では「MFH」という手指のジェスチャー認識のための高品質データセットを提案する。
上記の問題に対処するため、MFHデータセットには、異なるカメラビューから得られた合計731147のサンプルを6つの非重複領域に含めることが提案されている。
論文 参考訳(メタデータ) (2021-09-07T08:14:15Z) - Hand Hygiene Video Classification Based on Deep Learning [0.0]
手洗いのジェスチャーと片手ジェスチャーを併用した頑健なデータセットのサブセット。
トレーニング済みのニューラルネットワークモデルであるRES Net 50は、リニアハンドの動き、手のひらから手のひらまで、指を挟んだ手のひらという3つのカテゴリの分類に使用されるイメージネットの重みを持つ。
論文 参考訳(メタデータ) (2021-08-18T12:56:07Z) - Feature Identification and Matching for Hand Hygiene Pose [0.0]
実験により、ORBアルゴリズムは、少ない時間で多数の正しい一致を与えることにより、性能が向上することを示した。
OpenCVはpythonスクリプトにアルゴリズムを適用した。
論文 参考訳(メタデータ) (2021-08-14T13:34:42Z) - Hand Pose Classification Based on Neural Networks [0.0]
本研究は,移動学習に基づく場面における片手・両手・手の存在の分類を実証するものである。
Kerasライブラリの最も単純なNNは、704個の手の動きのイメージでネットワークをトレーニングするために使用される。
論文 参考訳(メタデータ) (2021-08-10T09:14:51Z) - HandVoxNet++: 3D Hand Shape and Pose Estimation using Voxel-Based Neural
Networks [71.09275975580009]
HandVoxNet++は、完全に教師された方法でトレーニングされた3Dおよびグラフ畳み込みを備えた、ボクセルベースのディープネットワークである。
HandVoxNet++は2つの手形状表現に依存している。1つは手形状の3Dボキセル化グリッドで、メッシュトポロジを保存していない。
我々は、新しいニューラルグラフ畳み込みに基づくメッシュレジストレーション(GCN-MeshReg)または古典的セグメントワイド非リジッド重力法(NRGA++)と、手表面をボキセル化ハンド形状に整列させることにより、両表現の利点を組み合わせる。
論文 参考訳(メタデータ) (2021-07-02T17:59:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。