論文の概要: Hand Hygiene Video Classification Based on Deep Learning
- arxiv url: http://arxiv.org/abs/2108.08127v1
- Date: Wed, 18 Aug 2021 12:56:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-19 19:04:56.951850
- Title: Hand Hygiene Video Classification Based on Deep Learning
- Title(参考訳): 深層学習に基づく手指衛生映像の分類
- Authors: Rashmi Bakshi
- Abstract要約: 手洗いのジェスチャーと片手ジェスチャーを併用した頑健なデータセットのサブセット。
トレーニング済みのニューラルネットワークモデルであるRES Net 50は、リニアハンドの動き、手のひらから手のひらまで、指を挟んだ手のひらという3つのカテゴリの分類に使用されるイメージネットの重みを持つ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, an extensive review of literature in the field of gesture
recognition carried out along with the implementation of a simple
classification system for hand hygiene stages based on deep learning solutions.
A subset of robust dataset that consist of handwashing gestures with two hands
as well as one-hand gestures such as linear hand movement utilized. A
pretrained neural network model, RES Net 50, with image net weights used for
the classification of 3 categories: Linear hand movement, rub hands palm to
palm and rub hands with fingers interlaced movement. Correct predictions made
for the first two classes with > 60% accuracy. A complete dataset along with
increased number of classes and training steps will be explored as a future
work.
- Abstract(参考訳): 本研究では, ジェスチャー認識の分野における文献の広範なレビューを行い, 深層学習ソリューションに基づく手衛生段階の簡易分類システムの実装を行った。
両手で手洗いのジェスチャーと、直線的な手の動きのような片手のジェスチャーからなる、ロバストなデータセットのサブセット。
トレーニング済みのニューラルネットワークモデルであるRES Net 50は、リニアハンドの動き、手のひらから手のひらまで、指を挟んだ手のひらという3つのカテゴリの分類に使用されるイメージネットの重みを持つ。
最初の2つのクラスの正しい予測は、60%の精度であった。
完全なデータセットとクラス数の増加、トレーニングステップが将来の作業として検討される。
関連論文リスト
- Learning Visuotactile Skills with Two Multifingered Hands [80.99370364907278]
マルチフィンガーハンドとバイソタクティブルデータを用いたバイマニアルシステムを用いて,人間の実演からの学習を探索する。
以上の結果から,バイスオタクティブルデータからの両指多指操作における有望な進歩が示唆された。
論文 参考訳(メタデータ) (2024-04-25T17:59:41Z) - Im2Hands: Learning Attentive Implicit Representation of Interacting
Two-Hand Shapes [58.551154822792284]
Implicit Two Hands (Im2Hands) は、2つの相互作用する手の最初の暗黙の表現である。
Im2Handsは、両手と手と手と画像のコヒーレンシーの高い2つの手のきめ細かい幾何学を生成することができる。
両手再建におけるIm2Handsの有効性を, 関連手法と比較して実験的に実証した。
論文 参考訳(メタデータ) (2023-02-28T06:38:25Z) - Feature Extraction and Prediction for Hand Hygiene Gestures with KNN
Algorithm [0.0]
本研究は手洗いの過程に関わる手振りの分析に焦点をあてる。
手の輪郭、手の遠心、最大の輪郭に沿った極端手点などの手の特徴を抽出する。
論文 参考訳(メタデータ) (2021-12-30T14:56:07Z) - A Comparison of Deep Learning Models for the Prediction of Hand Hygiene
Videos [0.0]
本稿では,手の衛生的ジェスチャーの分類と予測のために,Exception,Resnet-50,Inception V3などの様々なディープラーニングモデルの比較を行った。
データセットはビデオ形式での6つの手動衛生運動で構成されており、30人が参加している。
37%(Xセプションモデル),33%(インセプションV3),72%(ResNet-50)の精度は,25エポックモデルのトレーニング後の分類報告において達成された。
論文 参考訳(メタデータ) (2021-11-03T16:15:55Z) - A Skeleton-Driven Neural Occupancy Representation for Articulated Hands [49.956892429789775]
Hand ArticuLated Occupancy (HALO) は、3Dキーポイントと神経暗黙の面の利点を橋渡しする手話の表現である。
本研究では,3次元物体を把握した手の条件生成作業に対するHALOの適用性を示す。
論文 参考訳(メタデータ) (2021-09-23T14:35:19Z) - Egocentric View Hand Action Recognition by Leveraging Hand Surface and
Hand Grasp Type [15.878905144552204]
このフレームワークは、手メッシュモデルの平均曲率を合成し、3次元空間における手表面形状を符号化する。
手のつかみタイプと手の平均曲率を用いることで,手の動き認識の性能が向上する。
論文 参考訳(メタデータ) (2021-09-08T17:12:02Z) - Tracking Hand Hygiene Gestures with Leap Motion Controller [0.0]
WHOによると、手洗いの過程は、明確に定義された2つの手書きの動的ジェスチャーの段階に分けられる。
本稿では,手洗いの専門家の映像をセグメント化して分析し,その特徴を抽出する。
3DジェスチャートラッカーであるLeap Motion Controller (LEAP) は、これらのステージに関連する手の特徴を追跡し、検出するために使用された。
論文 参考訳(メタデータ) (2021-08-11T08:48:39Z) - Hand Pose Classification Based on Neural Networks [0.0]
本研究は,移動学習に基づく場面における片手・両手・手の存在の分類を実証するものである。
Kerasライブラリの最も単純なNNは、704個の手の動きのイメージでネットワークをトレーニングするために使用される。
論文 参考訳(メタデータ) (2021-08-10T09:14:51Z) - HandVoxNet++: 3D Hand Shape and Pose Estimation using Voxel-Based Neural
Networks [71.09275975580009]
HandVoxNet++は、完全に教師された方法でトレーニングされた3Dおよびグラフ畳み込みを備えた、ボクセルベースのディープネットワークである。
HandVoxNet++は2つの手形状表現に依存している。1つは手形状の3Dボキセル化グリッドで、メッシュトポロジを保存していない。
我々は、新しいニューラルグラフ畳み込みに基づくメッシュレジストレーション(GCN-MeshReg)または古典的セグメントワイド非リジッド重力法(NRGA++)と、手表面をボキセル化ハンド形状に整列させることにより、両表現の利点を組み合わせる。
論文 参考訳(メタデータ) (2021-07-02T17:59:54Z) - Physics-Based Dexterous Manipulations with Estimated Hand Poses and
Residual Reinforcement Learning [52.37106940303246]
ノイズの多い入力ポーズをターゲットの仮想ポーズにマッピングするモデルを学習する。
モデルフリーハイブリッドRL+ILアプローチを用いて残留条件下で訓練する。
筆者らは,VRにおける手動物体の相互作用と,それを用いた手動物体の動作再構成という,手動姿勢推定を用いた2つのアプリケーションで,我々のフレームワークを検証した。
論文 参考訳(メタデータ) (2020-08-07T17:34:28Z) - Body2Hands: Learning to Infer 3D Hands from Conversational Gesture Body
Dynamics [87.17505994436308]
身体の動きと手の動きは、非言語的コミュニケーション設定において強く相関しているという知見に基づいて構築する。
身体の動きのみを入力した場合の3次元手形状の予測タスクとして,この先行学習を定式化する。
本モデルでは,3次元手の動きのみを入力として,手の動きを説得力のある3次元手の動きを生成する。
論文 参考訳(メタデータ) (2020-07-23T22:58:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。