論文の概要: Fast Learning of Dynamic Hand Gesture Recognition with Few-Shot Learning
Models
- arxiv url: http://arxiv.org/abs/2212.08363v1
- Date: Fri, 16 Dec 2022 09:31:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 14:37:04.625973
- Title: Fast Learning of Dynamic Hand Gesture Recognition with Few-Shot Learning
Models
- Title(参考訳): Few-Shot 学習モデルを用いた動的ハンドジェスチャ認識の高速学習
- Authors: Niels Schl\"usener, Michael B\"ucker
- Abstract要約: 我々は5~10種類のダイナミックハンドジェスチャを認識するために訓練されたFew-Shot Learningモデルを開発した。
モデルは、手の動き毎に1つ、2つ、5つの例をモデルに提供することで、任意に交換可能である。
その結果、5の認識では88.8%、10のダイナミックハンドジェスチャでは81.2%の精度が得られた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We develop Few-Shot Learning models trained to recognize five or ten
different dynamic hand gestures, respectively, which are arbitrarily
interchangeable by providing the model with one, two, or five examples per hand
gesture. All models were built in the Few-Shot Learning architecture of the
Relation Network (RN), in which Long-Short-Term Memory cells form the backbone.
The models use hand reference points extracted from RGB-video sequences of the
Jester dataset which was modified to contain 190 different types of hand
gestures. Result show accuracy of up to 88.8% for recognition of five and up to
81.2% for ten dynamic hand gestures. The research also sheds light on the
potential effort savings of using a Few-Shot Learning approach instead of a
traditional Deep Learning approach to detect dynamic hand gestures. Savings
were defined as the number of additional observations required when a Deep
Learning model is trained on new hand gestures instead of a Few Shot Learning
model. The difference with respect to the total number of observations required
to achieve approximately the same accuracy indicates potential savings of up to
630 observations for five and up to 1260 observations for ten hand gestures to
be recognized. Since labeling video recordings of hand gestures implies
significant effort, these savings can be considered substantial.
- Abstract(参考訳): 筆者らは,手ジェスチャー毎に1つ,2つ,あるいは5つの例を提供することで,任意に交換可能な5種類の動的手ジェスチャーを認識できるように訓練されたFew-Shot Learningモデルを開発した。
すべてのモデルは、長期間のメモリセルがバックボーンを形成するrerelation network(rn)のマイナショット学習アーキテクチャで構築された。
モデルは、190種類の手のジェスチャーを含むように修正されたjesterデータセットのrgbビデオシーケンスから抽出されたハンドリファレンスポイントを使用する。
その結果、5の認識では88.8%、10のダイナミックハンドジェスチャでは81.2%の精度が得られた。
この研究は、従来のDeep Learningアプローチではなく、Few-Shot Learningアプローチを使用してダイナミックハンドジェスチャを検出することによる潜在的な労力の削減にも光を当てている。
セーブは、深層学習モデルがFew Shot Learningモデルではなく、新しい手の動きでトレーニングされるときに必要となる追加観測数として定義される。
ほぼ同じ精度を達成するのに必要な観測総数に対する差は、最大630回の観測を5回、最大1260回の観測を10回のジェスチャーで認識する可能性を示している。
手のジェスチャーの動画記録のラベル付けは多大な労力を要するため、これらの貯蓄は実質的と考えられる。
関連論文リスト
- Zero-Shot Underwater Gesture Recognition [3.4078654008228924]
手のジェスチャー認識は、人間が非言語で機械と対話することを可能にする。
近年,CADDIANと呼ばれるジェスチャー言語がダイバー向けに考案され,高精度なジェスチャー認識のための教師あり学習法が適用されている。
本研究は,ゼロショット水中ジェスチャー認識 (ZSUGR) の必要性を提唱するものである。本研究の目的は,少数のクラスからのジェスチャーの視覚的サンプルを用いてモデルを訓練し,得られた知識をテスト時に伝達し,意味的に類似しないジェスチャークラスも認識することである。
論文 参考訳(メタデータ) (2024-07-19T08:16:46Z) - Wearable Sensor-Based Few-Shot Continual Learning on Hand Gestures for Motor-Impaired Individuals via Latent Embedding Exploitation [6.782362178252351]
本稿では,リプレイベースのFew-Shot連続学習フレームワークにおいて,Latent Embedding Exploitation (LEE) 機構を導入する。
本手法は,ジェスチャー先行知識として知られる保存された潜伏埋め込みを利用して,多様な潜伏特徴空間を生成する。
本手法は、運動障害者がウェアラブルデバイスを活用するのに役立ち、そのユニークな動作スタイルを学習し応用することができる。
論文 参考訳(メタデータ) (2024-05-14T21:20:27Z) - HomE: Homography-Equivariant Video Representation Learning [62.89516761473129]
マルチビュービデオの表現学習のための新しい手法を提案する。
提案手法は異なる視点間の暗黙的なマッピングを学習し,近隣の視点間のホモグラフィ関係を維持する表現空間を決定づける。
動作分類では,UCF101データセットの96.4%の3倍精度が得られた。
論文 参考訳(メタデータ) (2023-06-02T15:37:43Z) - Revisiting Classifier: Transferring Vision-Language Models for Video
Recognition [102.93524173258487]
ダウンストリームタスクのためのタスク非依存の深層モデルから知識を伝達することは、コンピュータビジョン研究において重要なトピックである。
本研究では,映像分類作業における知識の伝達に着目した。
予測された言語モデルを用いて、効率的な翻訳学習のための適切なセマンティックターゲットを生成する。
論文 参考訳(メタデータ) (2022-07-04T10:00:47Z) - HaGRID - HAnd Gesture Recognition Image Dataset [79.21033185563167]
本稿では,ハンドジェスチャ認識システム構築のための巨大なデータセットであるHaGRIDを紹介し,それを管理するデバイスとのインタラクションに着目した。
ジェスチャーは静的だが、特にいくつかの動的ジェスチャーを設計する能力のために拾われた。
HaGRIDには54,800の画像とジェスチャーラベル付きバウンディングボックスアノテーションが含まれており、手検出とジェスチャー分類のタスクを解決している。
論文 参考訳(メタデータ) (2022-06-16T14:41:32Z) - Enabling hand gesture customization on wrist-worn devices [28.583516259577486]
既存のジェスチャーセットの性能を劣化させることなく、ユーザから最小限のサンプルを必要とするジェスチャーカスタマイズのためのフレームワークを提案する。
われわれのアプローチは、ユーザーが既存のジェスチャーに縛られない未来への道を切り拓き、自分の好みや能力に合わせた新しいジェスチャーを創造的に導入することを可能にする。
論文 参考訳(メタデータ) (2022-03-29T05:12:32Z) - Partner-Assisted Learning for Few-Shot Image Classification [54.66864961784989]
人間の視覚能力を模倣し、徹底的な人間のアノテーションを必要とせずに効果的なモデルを学ぶために、わずかなショットラーニングが研究されている。
本稿では,新しいクラスのプロトタイプをラベル付きサンプルから推定できるように,要素表現を得るためのトレーニング戦略の設計に焦点をあてる。
本稿では,まずパートナーエンコーダのペアワイド類似性をモデル化し,ソフトアンカーとして機能する特徴を抽出し,その出力をソフトアンカーと整列させ,分類性能を最大化しようとする2段階トレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-15T22:46:19Z) - Dynamic Modeling of Hand-Object Interactions via Tactile Sensing [133.52375730875696]
本研究では,高分解能な触覚グローブを用いて,多種多様な物体に対して4種類のインタラクティブな動作を行う。
我々は,クロスモーダル学習フレームワーク上にモデルを構築し,視覚処理パイプラインを用いてラベルを生成し,触覚モデルを監督する。
この研究は、高密度触覚センシングによる手動物体相互作用における動的モデリングの一歩を踏み出す。
論文 参考訳(メタデータ) (2021-09-09T16:04:14Z) - SHREC 2021: Track on Skeleton-based Hand Gesture Recognition in the Wild [62.450907796261646]
手のジェスチャーの認識は、ソフトウェアによって推定される手の骨格のストリームから直接行うことができる。
最近のスケルトンからのジェスチャーや行動認識の進歩にもかかわらず、現在の最先端技術が現実のシナリオでどの程度うまく機能するかは明らかではない。
本稿では,SHREC 2021: Track on Skeleton-based Hand Gesture Recognition in the Wild contestについて述べる。
論文 参考訳(メタデータ) (2021-06-21T10:57:49Z) - FS-HGR: Few-shot Learning for Hand Gesture Recognition via
ElectroMyography [19.795875814764116]
ほとんどショットラーニング(Few-Shot Learning)は、ドメイン適応の変種であり、1つまたは数個のトレーニング例に基づいて必要なアウトプットを推測することを目的としている。
提案手法は,5-way 5-shot(5-way 5-shot)と5-way 5-shot(5-way 5-shot)と5-way 5-shot(5-way 5-shot)と2-way 5-shot(5-way 5-shot)と2-way 5-shot(5-way 5-shot)と2-way 5-shot(5-way 5-shot)とで,85.94%の分類精度を得た。
論文 参考訳(メタデータ) (2020-11-11T22:33:31Z) - FineHand: Learning Hand Shapes for American Sign Language Recognition [16.862375555609667]
本稿では,手形状の埋め込みを効果的に学習するためのアプローチを提案する。
手形認識には手動ラベル付き手形と高信頼度予測を組み合わせて深部畳み込みニューラルネットワーク(CNN)を訓練する。
より高品質な手形状モデルが最終映像ジェスチャー分類の精度を大幅に向上させることを実証する。
論文 参考訳(メタデータ) (2020-03-04T23:32:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。