論文の概要: Fine-grained Hand Gesture Recognition in Multi-viewpoint Hand Hygiene
- arxiv url: http://arxiv.org/abs/2109.02917v1
- Date: Tue, 7 Sep 2021 08:14:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-08 14:38:20.758140
- Title: Fine-grained Hand Gesture Recognition in Multi-viewpoint Hand Hygiene
- Title(参考訳): 多視点ハンド衛生におけるきめ細かい手指認識
- Authors: Huy Q.Vo, Tuong Do, Vi C.Pham, Duy Nguyen, An T.Duong and Quang D.Tran
- Abstract要約: 本稿では「MFH」という手指のジェスチャー認識のための高品質データセットを提案する。
上記の問題に対処するため、MFHデータセットには、異なるカメラビューから得られた合計731147のサンプルを6つの非重複領域に含めることが提案されている。
- 参考スコア(独自算出の注目度): 3.588453140011797
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper contributes a new high-quality dataset for hand gesture
recognition in hand hygiene systems, named "MFH". Generally, current datasets
are not focused on: (i) fine-grained actions; and (ii) data mismatch between
different viewpoints, which are available under realistic settings. To address
the aforementioned issues, the MFH dataset is proposed to contain a total of
731147 samples obtained by different camera views in 6 non-overlapping
locations. Additionally, each sample belongs to one of seven steps introduced
by the World Health Organization (WHO). As a minor contribution, inspired by
advances in fine-grained image recognition and distribution adaptation, this
paper recommends using the self-supervised learning method to handle these
preceding problems. The extensive experiments on the benchmarking MFH dataset
show that the introduced method yields competitive performance in both the
Accuracy and the Macro F1-score. The code and the MFH dataset are available at
https://github.com/willogy-team/hand-gesture-recognition-smc2021.
- Abstract(参考訳): 本稿では「MFH」という手指のジェスチャー認識のための高品質なデータセットを提案する。
一般的に、現在のデータセットは、: (i) きめ細かなアクション、および (ii) 現実的な設定で利用可能な異なる視点間でのデータミスマッチ。
上記の問題に対処するため、MFHデータセットには、異なるカメラビューから得られた合計731147のサンプルを6つの非重複領域に含めることが提案されている。
さらに、各サンプルは世界保健機関(WHO)が導入した7つのステップのうちの1つである。
微粒化画像認識と分布適応の進歩に触発された小さな貢献として,本稿では,従来の問題に対処するための自己教師付き学習法を推奨する。
ベンチマークMFHデータセットに関する広範な実験により、提案手法が精度とマクロF1スコアの両方で競合性能を発揮することが示された。
コードとmfhデータセットはhttps://github.com/willogy-team/hand-gesture-recognition-smc2021で入手できる。
関連論文リスト
- SMILE-UHURA Challenge -- Small Vessel Segmentation at Mesoscopic Scale from Ultra-High Resolution 7T Magnetic Resonance Angiograms [60.35639972035727]
公開されている注釈付きデータセットの欠如は、堅牢で機械学習駆動のセグメンテーションアルゴリズムの開発を妨げている。
SMILE-UHURAチャレンジは、7T MRIで取得したTime-of-Flightアンジオグラフィーの注釈付きデータセットを提供することで、公開されている注釈付きデータセットのギャップに対処する。
Diceスコアは、それぞれのデータセットで0.838 $pm$0.066と0.716 $pm$ 0.125まで到達し、平均パフォーマンスは0.804 $pm$ 0.15までになった。
論文 参考訳(メタデータ) (2024-11-14T17:06:00Z) - Multi-fingered Robotic Hand Grasping in Cluttered Environments through Hand-object Contact Semantic Mapping [14.674925349389179]
接触セマンティックマップを用いて, 乱雑な環境下でのマルチフィンガーハンドグリップサンプルを生成する手法を開発した。
また,マルチモーダルなマルチフィンガーグリップデータセット生成手法を提案する。
論文 参考訳(メタデータ) (2024-04-12T23:11:36Z) - Domain Adaptive Synapse Detection with Weak Point Annotations [63.97144211520869]
弱点アノテーションを用いたドメイン適応型シナプス検出のためのフレームワークであるAdaSynを提案する。
I SBI 2023のWASPSYNチャレンジでは、我々の手法が第1位にランクインした。
論文 参考訳(メタデータ) (2023-08-31T05:05:53Z) - Multi-Granularity Hand Action Detection [58.88274905101276]
FHA-Kitchensデータセットは2,377のビデオクリップと30,047フレームで構成され、約200kのバウンディングボックスと880のアクションカテゴリがアノテートされている。
このデータセットは2,377のビデオクリップと30,047フレームで構成され、約200kのバウンディングボックスと880のアクションカテゴリが注釈付けされている。
MG-HAD (End-to-End Multi-Granularity Hand Action Detection) を提案する。
論文 参考訳(メタデータ) (2023-06-19T11:21:59Z) - Exploring the Boundaries of Semi-Supervised Facial Expression Recognition using In-Distribution, Out-of-Distribution, and Unconstrained Data [23.4909421082857]
表情認識(FER)における最新の半教師あり手法11について検討する。
本研究は,非流通,アウト・オブ・ディストリビューション,制約のない,非常に小さなデータからの半教師付き学習を対象とする。
ラベル付きサンプルの数が等しいため、半教師付き学習は教師付き学習よりも大幅に改善される。
論文 参考訳(メタデータ) (2023-06-02T01:40:08Z) - The Second Monocular Depth Estimation Challenge [93.1678025923996]
MDEC (Monocular Depth Estimation Challenge) の第2版は、いかなる種類の監視方法にも開放された。
この課題はSynS-Patchesデータセットをベースとしており、高品質な高密度地下構造を持つ多様な環境を特徴としている。
上位の監督官は相対的なFスコアを27.62%改善し、上位の監督官は16.61%改善した。
論文 参考訳(メタデータ) (2023-04-14T11:10:07Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z) - ROAM: Random Layer Mixup for Semi-Supervised Learning in Medical Imaging [43.26668942258135]
医療画像のセグメンテーションは、機械学習の手法が抱える大きな課題の1つだ。
我々はRandOm lAyer MixupのROAMを提案する。
ROAMは、全脳セグメンテーションに対してそれぞれ2.40%と16.50%の相対的な改善を施した、完全に監督された(89.5%)と半監督された(87.0%)設定のSOTA(State-of-the-art)を達成している。
論文 参考訳(メタデータ) (2020-03-20T18:07:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。