論文の概要: A Comparison of Deep Learning Models for the Prediction of Hand Hygiene
Videos
- arxiv url: http://arxiv.org/abs/2111.02322v1
- Date: Wed, 3 Nov 2021 16:15:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-04 15:17:08.627841
- Title: A Comparison of Deep Learning Models for the Prediction of Hand Hygiene
Videos
- Title(参考訳): ハンド衛生映像の予測のための深層学習モデルの比較
- Authors: Rashmi Bakshi
- Abstract要約: 本稿では,手の衛生的ジェスチャーの分類と予測のために,Exception,Resnet-50,Inception V3などの様々なディープラーニングモデルの比較を行った。
データセットはビデオ形式での6つの手動衛生運動で構成されており、30人が参加している。
37%(Xセプションモデル),33%(インセプションV3),72%(ResNet-50)の精度は,25エポックモデルのトレーニング後の分類報告において達成された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a comparison of various deep learning models such as
Exception, Resnet-50, and Inception V3 for the classification and prediction of
hand hygiene gestures, which were recorded in accordance with the World Health
Organization (WHO) guidelines. The dataset consists of six hand hygiene
movements in a video format, gathered for 30 participants. The network consists
of pre-trained models with image net weights and a modified head of the model.
An accuracy of 37% (Xception model), 33% (Inception V3), and 72% (ResNet-50) is
achieved in the classification report after the training of the models for 25
epochs. ResNet-50 model clearly outperforms with correct class predictions. The
major speed limitation can be overcome with the use of fast processing GPU for
future work. A complete hand hygiene dataset along with other generic gestures
such as one-hand movements (linear hand motion; circular hand rotation) will be
tested with ResNet-50 architecture and the variants for health care workers.
- Abstract(参考訳): 本稿では,世界保健機関(WHO)のガイドラインに従って記録された手の衛生的ジェスチャーの分類と予測のための,Exception,Resnet-50,Inception V3などの様々な深層学習モデルの比較を行った。
データセットはビデオ形式での6つの手動衛生運動で構成され、30人が参加する。
ネットワークは、トレーニング済みのモデルと、画像の重みとモデルの修正されたヘッドで構成されている。
37%(Xセプションモデル),33%(インセプションV3),72%(ResNet-50)の精度は,25エポックモデルのトレーニング後の分類報告において達成された。
ResNet-50モデルは、正しいクラス予測で明らかに優れています。
主要な速度制限は、将来の作業のために高速処理gpuを使用することで克服できる。
resnet-50アーキテクチャと医療従事者向けに、片手動作(リニアハンドモーション、円形ハンドローテーション)などの一般的なジェスチャとともに、完全な手衛生データセットをテストする。
関連論文リスト
- Establishing a stronger baseline for lightweight contrastive models [10.63129923292905]
最近の研究は、特別に設計された効率的なネットワークのための自己指導型コントラスト学習の性能劣化を報告している。
一般的な実践は、事前訓練された対照的な教師モデルを導入し、教師が生成した蒸留信号で軽量ネットワークを訓練することである。
本研究では,教師モデルの事前学習を使わずに,軽量コントラストモデルのための強力なベースラインを確立することを目的とする。
論文 参考訳(メタデータ) (2022-12-14T11:20:24Z) - Could Giant Pretrained Image Models Extract Universal Representations? [94.97056702288317]
本稿では,多種多様なコンピュータビジョンタスクに適用した凍結事前学習モデルについて述べる。
私たちの研究は、この凍結した設定にどのような事前学習タスクが最適か、凍結した設定を様々な下流タスクに柔軟にする方法、より大きなモデルサイズの影響について、質問に答えています。
論文 参考訳(メタデータ) (2022-11-03T17:57:10Z) - Part-Based Models Improve Adversarial Robustness [57.699029966800644]
人間の事前知識とエンドツーエンドの学習を組み合わせることで、ディープニューラルネットワークの堅牢性を向上させることができることを示す。
我々のモデルは、部分分割モデルと小さな分類器を組み合わせて、オブジェクトを同時に部品に分割するようにエンドツーエンドに訓練されている。
実験の結果,これらのモデルによりテクスチャバイアスが低減され,一般的な汚職に対する堅牢性が向上し,相関が急上昇することが示唆された。
論文 参考訳(メタデータ) (2022-09-15T15:41:47Z) - Design of Human Machine Interface through vision-based low-cost Hand
Gesture Recognition system based on deep CNN [3.5665681694253903]
リアルタイムの手ジェスチャー認識システムを用いたヒューマンコンピュータインタフェース(HCI)を提案する。
本システムは,手検出,(2)ジェスチャーセグメンテーション,(3)移動学習による6つの事前学習CNNモデルの使用,(4)対話型ヒューマンマシンインタフェースの構築,(5)ジェスチャー制御仮想マウスの開発,の6段階からなる。
論文 参考訳(メタデータ) (2022-07-07T06:50:08Z) - Revisiting Classifier: Transferring Vision-Language Models for Video
Recognition [102.93524173258487]
ダウンストリームタスクのためのタスク非依存の深層モデルから知識を伝達することは、コンピュータビジョン研究において重要なトピックである。
本研究では,映像分類作業における知識の伝達に着目した。
予測された言語モデルを用いて、効率的な翻訳学習のための適切なセマンティックターゲットを生成する。
論文 参考訳(メタデータ) (2022-07-04T10:00:47Z) - Hand Hygiene Video Classification Based on Deep Learning [0.0]
手洗いのジェスチャーと片手ジェスチャーを併用した頑健なデータセットのサブセット。
トレーニング済みのニューラルネットワークモデルであるRES Net 50は、リニアハンドの動き、手のひらから手のひらまで、指を挟んだ手のひらという3つのカテゴリの分類に使用されるイメージネットの重みを持つ。
論文 参考訳(メタデータ) (2021-08-18T12:56:07Z) - Hand Pose Classification Based on Neural Networks [0.0]
本研究は,移動学習に基づく場面における片手・両手・手の存在の分類を実証するものである。
Kerasライブラリの最も単純なNNは、704個の手の動きのイメージでネットワークをトレーニングするために使用される。
論文 参考訳(メタデータ) (2021-08-10T09:14:51Z) - HandVoxNet++: 3D Hand Shape and Pose Estimation using Voxel-Based Neural
Networks [71.09275975580009]
HandVoxNet++は、完全に教師された方法でトレーニングされた3Dおよびグラフ畳み込みを備えた、ボクセルベースのディープネットワークである。
HandVoxNet++は2つの手形状表現に依存している。1つは手形状の3Dボキセル化グリッドで、メッシュトポロジを保存していない。
我々は、新しいニューラルグラフ畳み込みに基づくメッシュレジストレーション(GCN-MeshReg)または古典的セグメントワイド非リジッド重力法(NRGA++)と、手表面をボキセル化ハンド形状に整列させることにより、両表現の利点を組み合わせる。
論文 参考訳(メタデータ) (2021-07-02T17:59:54Z) - Beyond Self-Supervision: A Simple Yet Effective Network Distillation
Alternative to Improve Backbones [40.33419553042038]
既製のトレーニング済み大型モデルからナレッジ蒸留による既存ベースラインネットワークの改善を提案します。
本ソリューションは,教師モデルと整合した学生モデルの予測のみを駆動することにより,蒸留を行う。
例えば、MobileNetV3-large と ResNet50-D の ImageNet-1k 検証セットにおけるトップ-1 の精度は、大幅に向上できる。
論文 参考訳(メタデータ) (2021-03-10T09:32:44Z) - RepVGG: Making VGG-style ConvNets Great Again [116.0327370719692]
本稿では,3x3畳み込みとReLUのスタックのみからなるVGGのような推論時間体を持つ,畳み込みニューラルネットワークの単純かつ強力なアーキテクチャを提案する。
RepVGGは、私たちの知識を最大限に活用するために、プレーンモデルにとって初めてである80%以上のトップ-1の精度に達します。
論文 参考訳(メタデータ) (2021-01-11T04:46:11Z) - Deep Learning for Content-based Personalized Viewport Prediction of
360-Degree VR Videos [72.08072170033054]
本稿では、位置データとビデオフレームコンテンツを活用して、将来の頭部の動きを予測するためのディープラーニングネットワークを提案する。
このニューラルネットワークに入力されるデータを最適化するために、このモデルのために、データサンプル率、データ削減、長期予測長についても検討する。
論文 参考訳(メタデータ) (2020-03-01T07:31:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。