論文の概要: A Prototype-Based Generalized Zero-Shot Learning Framework for Hand
Gesture Recognition
- arxiv url: http://arxiv.org/abs/2009.13957v1
- Date: Tue, 29 Sep 2020 12:18:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 06:37:20.955987
- Title: A Prototype-Based Generalized Zero-Shot Learning Framework for Hand
Gesture Recognition
- Title(参考訳): 手指ジェスチャー認識のためのプロトタイプベース一般化ゼロショット学習フレームワーク
- Authors: Jinting Wu, Yujia Zhang and Xiaoguang Zhao
- Abstract要約: ハンドジェスチャ認識のためのエンドツーエンドのプロトタイプベースのフレームワークを提案する。
最初のブランチは、ジェスチャー表現を学習するプロトタイプベースの検出器である。
2番目のブランチはゼロショットラベル予測器で、目に見えないクラスの機能を入力として取り、予測を出力する。
- 参考スコア(独自算出の注目度): 5.992264231643021
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hand gesture recognition plays a significant role in human-computer
interaction for understanding various human gestures and their intent. However,
most prior works can only recognize gestures of limited labeled classes and
fail to adapt to new categories. The task of Generalized Zero-Shot Learning
(GZSL) for hand gesture recognition aims to address the above issue by
leveraging semantic representations and detecting both seen and unseen class
samples. In this paper, we propose an end-to-end prototype-based GZSL framework
for hand gesture recognition which consists of two branches. The first branch
is a prototype-based detector that learns gesture representations and
determines whether an input sample belongs to a seen or unseen category. The
second branch is a zero-shot label predictor which takes the features of unseen
classes as input and outputs predictions through a learned mapping mechanism
between the feature and the semantic space. We further establish a hand gesture
dataset that specifically targets this GZSL task, and comprehensive experiments
on this dataset demonstrate the effectiveness of our proposed approach on
recognizing both seen and unseen gestures.
- Abstract(参考訳): 手のジェスチャー認識は、人間のジェスチャーとその意図を理解する上で、人間とコンピュータの相互作用において重要な役割を果たす。
しかし、ほとんどの先行作品は限られたラベル付きクラスのジェスチャしか認識できず、新しいカテゴリに適応できない。
手動ジェスチャー認識のための汎用ゼロショット学習(GZSL)の課題は、意味表現を活用して、見知らぬクラスサンプルと見えないクラスサンプルの両方を検出することで、上記の問題に対処することを目的としている。
本稿では,2つの分枝からなる手指ジェスチャー認識のためのエンドツーエンドのプロトタイプベースgzslフレームワークを提案する。
第1分枝は、ジェスチャー表現を学習し、入力サンプルが目に見えるか見えないカテゴリーに属するかどうかを決定するプロトタイプベースの検出器である。
第2のブランチはゼロショットラベル予測器で、未取得のクラスの特徴を入力として、特徴と意味空間の間の学習されたマッピングメカニズムを通じて予測を出力する。
さらに,このgzslタスクを対象とするハンドジェスチャデータセットの確立と,このデータセットに関する包括的実験により,見掛けたジェスチャと見当たらないジェスチャの両方を認識するための提案手法の有効性を示す。
関連論文リスト
- Zero-Shot Underwater Gesture Recognition [3.4078654008228924]
手のジェスチャー認識は、人間が非言語で機械と対話することを可能にする。
近年,CADDIANと呼ばれるジェスチャー言語がダイバー向けに考案され,高精度なジェスチャー認識のための教師あり学習法が適用されている。
本研究は,ゼロショット水中ジェスチャー認識 (ZSUGR) の必要性を提唱するものである。本研究の目的は,少数のクラスからのジェスチャーの視覚的サンプルを用いてモデルを訓練し,得られた知識をテスト時に伝達し,意味的に類似しないジェスチャークラスも認識することである。
論文 参考訳(メタデータ) (2024-07-19T08:16:46Z) - MASA: Motion-aware Masked Autoencoder with Semantic Alignment for Sign Language Recognition [94.56755080185732]
本研究では,リッチモーションキューとグローバルセマンティック情報を統合したセマンティックアライメント(MASA)を用いたMotion-Awareマスク付きオートエンコーダを提案する。
我々のフレームワークは,包括的手話表現のための局所的な動きの手がかりとグローバルな意味的特徴を同時に学習することができる。
論文 参考訳(メタデータ) (2024-05-31T08:06:05Z) - Towards Open-set Gesture Recognition via Feature Activation Enhancement
and Orthogonal Prototype Learning [4.724899372568309]
ジェスチャー認識は人間と機械の相互作用における基礎的なタスクである。
頑健なシステムにおいて、未知の無関心な動作を効果的に識別し、拒否することが不可欠である。
本稿では,2つの新しい特徴,特徴のアクティベーションレベル,投射の不整合性を利用した,より効果的なPL手法を提案する。
論文 参考訳(メタデータ) (2023-12-05T06:49:15Z) - Disentangled Interaction Representation for One-Stage Human-Object
Interaction Detection [70.96299509159981]
ヒューマン・オブジェクト・インタラクション(HOI)検出は、人間中心の画像理解のコアタスクである。
最近のワンステージ手法では、対話予測に有用な画像ワイドキューの収集にトランスフォーマーデコーダを採用している。
従来の2段階の手法は、非絡み合いで説明可能な方法で相互作用特徴を構成する能力から大きな恩恵を受ける。
論文 参考訳(メタデータ) (2023-12-04T08:02:59Z) - SignBERT+: Hand-model-aware Self-supervised Pre-training for Sign
Language Understanding [132.78015553111234]
手の動きは手話の表現において重要な役割を担っている。
現在,手話理解(SLU)の深層学習手法は,手話データ資源の不足により過度に適合する傾向にある。
モデル認識ハンドを組み込んだ初の自己教師型事前学習型SignBERT+フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-08T17:16:38Z) - Learning Common Rationale to Improve Self-Supervised Representation for
Fine-Grained Visual Recognition Problems [61.11799513362704]
我々は、インスタンスやクラスでよく見られる差別的手がかりを識別するための、追加のスクリーニングメカニズムの学習を提案する。
SSL目標から誘導されるGradCAMを単純に利用することで、共通な有理性検出器が学習可能であることを示す。
論文 参考訳(メタデータ) (2023-03-03T02:07:40Z) - Cross-modal Representation Learning for Zero-shot Action Recognition [67.57406812235767]
我々は、ゼロショット動作認識(ZSAR)のためのビデオデータとテキストラベルを共同で符号化するクロスモーダルトランスフォーマーベースのフレームワークを提案する。
我々のモデルは概念的に新しいパイプラインを使用し、視覚的表現と視覚的意味的関連をエンドツーエンドで学習する。
実験結果から,本モデルはZSARの芸術的状況に大きく改善され,UCF101,HMDB51,ActivityNetベンチマークデータセット上でトップ1の精度が向上した。
論文 参考訳(メタデータ) (2022-05-03T17:39:27Z) - The Overlooked Classifier in Human-Object Interaction Recognition [82.20671129356037]
クラス間の意味的相関を分類ヘッドにエンコードし,重みをHOIの言語埋め込みで初期化する。
我々は,LSE-Sign という新しい損失を,長い尾を持つデータセット上でのマルチラベル学習を強化するために提案する。
我々は,物体検出と人間のポーズを明確なマージンで求める最先端技術よりも優れた,検出不要なHOI分類を可能にする。
論文 参考訳(メタデータ) (2022-03-10T23:35:00Z) - GAN for Vision, KG for Relation: a Two-stage Deep Network for Zero-shot
Action Recognition [33.23662792742078]
ゼロショット動作認識のための2段階のディープニューラルネットワークを提案する。
サンプリング段階では,授業の動作特徴と単語ベクトルによって訓練されたGAN(Generative Adversarial Network)を利用する。
分類段階において、アクションクラスの単語ベクトルと関連するオブジェクトの関係に基づいて知識グラフを構築する。
論文 参考訳(メタデータ) (2021-05-25T09:34:42Z) - FineHand: Learning Hand Shapes for American Sign Language Recognition [16.862375555609667]
本稿では,手形状の埋め込みを効果的に学習するためのアプローチを提案する。
手形認識には手動ラベル付き手形と高信頼度予測を組み合わせて深部畳み込みニューラルネットワーク(CNN)を訓練する。
より高品質な手形状モデルが最終映像ジェスチャー分類の精度を大幅に向上させることを実証する。
論文 参考訳(メタデータ) (2020-03-04T23:32:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。