論文の概要: Towards Open-set Gesture Recognition via Feature Activation Enhancement
and Orthogonal Prototype Learning
- arxiv url: http://arxiv.org/abs/2312.02535v1
- Date: Tue, 5 Dec 2023 06:49:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-06 16:26:16.282493
- Title: Towards Open-set Gesture Recognition via Feature Activation Enhancement
and Orthogonal Prototype Learning
- Title(参考訳): 機能活性化と直交型学習によるオープンセットジェスチャー認識に向けて
- Authors: Chen Liu, Can Han, Chengfeng Zhou, Crystal Cai, Suncheng Xiang,
Hualiang Ni, Dahong Qian
- Abstract要約: ジェスチャー認識は人間と機械の相互作用における基礎的なタスクである。
頑健なシステムにおいて、未知の無関心な動作を効果的に識別し、拒否することが不可欠である。
本稿では,2つの新しい特徴,特徴のアクティベーションレベル,投射の不整合性を利用した,より効果的なPL手法を提案する。
- 参考スコア(独自算出の注目度): 4.724899372568309
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gesture recognition is a foundational task in human-machine interaction
(HMI). While there has been significant progress in gesture recognition based
on surface electromyography (sEMG), accurate recognition of predefined gestures
only within a closed set is still inadequate in practice. It is essential to
effectively discern and reject unknown gestures of disinterest in a robust
system. Numerous methods based on prototype learning (PL) have been proposed to
tackle this open set recognition (OSR) problem. However, they do not fully
explore the inherent distinctions between known and unknown classes. In this
paper, we propose a more effective PL method leveraging two novel and inherent
distinctions, feature activation level and projection inconsistency.
Specifically, the Feature Activation Enhancement Mechanism (FAEM) widens the
gap in feature activation values between known and unknown classes.
Furthermore, we introduce Orthogonal Prototype Learning (OPL) to construct
multiple perspectives. OPL acts to project a sample from orthogonal directions
to maximize the distinction between its two projections, where unknown samples
will be projected near the clusters of different known classes while known
samples still maintain intra-class similarity. Our proposed method
simultaneously achieves accurate closed-set classification for predefined
gestures and effective rejection for unknown gestures. Extensive experiments
demonstrate its efficacy and superiority in open-set gesture recognition based
on sEMG.
- Abstract(参考訳): ジェスチャー認識はヒューマンマシンインタラクション(hmi)の基本的なタスクである。
表面筋電図(sEMG)に基づくジェスチャー認識の進歩は著しいが, クローズドセット内でのみ事前に定義されたジェスチャーの正確な認識はいまだに不十分である。
堅牢なシステムにおいて,不利な動作を効果的に識別し,否定することが重要である。
このオープンセット認識(osr)問題に取り組むために,プロトタイプ学習(pl)に基づく手法が数多く提案されている。
しかし、それらは既知のクラスと未知のクラスの間の固有の区別を完全には探求しない。
本稿では,特徴活性化レベルと投影不整合という2つの特徴を生かしたより効果的なpl法を提案する。
具体的には、FAEM(Feature Activation Enhancement Mechanism)は、既知のクラスと未知クラスの機能アクティベーション値のギャップを広げる。
さらに,複数の視点を構築するために,Orthogonal Prototype Learning (OPL)を導入する。
OPLは2つの投影の区別を最大化するために直交方向からサンプルを投影し、既知のサンプルがクラス内類似性を維持している間、未知のサンプルは異なる既知のクラスのクラスタの近くに投影される。
提案手法は,既定ジェスチャの正確なクローズドセット分類と未知ジェスチャの効果的な拒絶を同時に達成する。
積極的実験は、sEMGに基づくオープンセットジェスチャー認識の有効性と優位性を示す。
関連論文リスト
- FinePseudo: Improving Pseudo-Labelling through Temporal-Alignablity for Semi-Supervised Fine-Grained Action Recognition [57.17966905865054]
実生活における行動認識の応用は、しばしば微妙な動きのきめ細かい理解を必要とする。
既存の半教師ありアクション認識は主に粗いアクション認識に焦点を当てている。
そこで我々は,微粒なアクションペアの識別を効果的に行うための,アライナビリティ検証に基づくメトリック学習手法を提案する。
論文 参考訳(メタデータ) (2024-09-02T20:08:06Z) - PredIN: Towards Open-Set Gesture Recognition via Prediction Inconsistency [2.9693487028932277]
アンサンブル学習手法であるPredINを提案し,アンサンブルの多様性を高めて予測の不整合を増大させる。
提案手法は,事前定義されたジェスチャーに対する正確なクローズドセット分類と未知のジェスチャーに対する効果的な拒絶を同時に達成し,sEMGに基づくオープンセットジェスチャー認識の有効性と優位性を示す。
論文 参考訳(メタデータ) (2024-07-29T07:35:06Z) - Cascading Unknown Detection with Known Classification for Open Set Recognition [0.6906005491572401]
未知分類を用いたカスケーディング未知検出(Cas-DC)について紹介する。
我々は、既知の/未知の検知と、既知の世界のクラス分類の両方のために、カスケード方式で特殊関数を学習する。
実験と解析により、Cas-DCはオープンセット認識においてモダンな手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-06-10T15:13:07Z) - OpenIncrement: A Unified Framework for Open Set Recognition and Deep
Class-Incremental Learning [4.278434830731282]
オープンな集合認識と統合された深層学習フレームワークを提案する。
提案手法は,クラスに学習した特徴を改良し,距離に基づくオープンセット認識に適応させる。
実験により,本手法が最先端のインクリメンタル学習技術より優れていることを確認した。
論文 参考訳(メタデータ) (2023-10-05T19:08:08Z) - Learning Common Rationale to Improve Self-Supervised Representation for
Fine-Grained Visual Recognition Problems [61.11799513362704]
我々は、インスタンスやクラスでよく見られる差別的手がかりを識別するための、追加のスクリーニングメカニズムの学習を提案する。
SSL目標から誘導されるGradCAMを単純に利用することで、共通な有理性検出器が学習可能であることを示す。
論文 参考訳(メタデータ) (2023-03-03T02:07:40Z) - Open-World Object Detection via Discriminative Class Prototype Learning [4.055884768256164]
オープンワールドオブジェクト検出(OWOD)は、オブジェクト検出とインクリメンタルラーニングとオープンセットラーニングを組み合わせた難しい問題である。
OCPL: 差別的OCPL: オープンワールドオブジェクト検出: 差別的OCPL: 差別的OCPL: オープンワールドオブジェクト検出: 差別的OCPL: 差別的OCPL: オープンワールドオブジェクト検出: 差別的OCPL: 差別的OCPL: オープンワールドオブジェクト検出: 差別的OCPL: 差別的OCPL: オープンワールドオブジェクト検出: オープンワールドオブジェクト検出
論文 参考訳(メタデータ) (2023-02-23T03:05:04Z) - Class-Specific Semantic Reconstruction for Open Set Recognition [101.24781422480406]
オープンセット認識により、ディープニューラルネットワーク(DNN)は未知のクラスのサンプルを識別できる。
本稿では,自動エンコーダ(AE)とプロトタイプ学習を統合したCSSR(Class-Specific Semantic Reconstruction)を提案する。
複数のデータセットで実験を行った結果,提案手法は閉集合認識と開集合認識の両方において優れた性能を発揮することがわかった。
論文 参考訳(メタデータ) (2022-07-05T16:25:34Z) - Spatio-temporal Gait Feature with Adaptive Distance Alignment [90.5842782685509]
我々は,ネットワーク構造の最適化と抽出した歩行特徴の洗練という2つの側面から,異なる被験者の歩行特徴の差を増大させようとしている。
提案手法は時空間特徴抽出(SFE)と適応距離アライメント(ADA)から構成される。
ADAは実生活における多数の未ラベルの歩行データをベンチマークとして使用し、抽出した時間的特徴を洗練し、クラス間類似度が低く、クラス内類似度が高いようにしている。
論文 参考訳(メタデータ) (2022-03-07T13:34:00Z) - Few-Shot Fine-Grained Action Recognition via Bidirectional Attention and
Contrastive Meta-Learning [51.03781020616402]
現実世界のアプリケーションで特定のアクション理解の需要が高まっているため、きめ細かいアクション認識が注目を集めている。
そこで本研究では,各クラスに付与されるサンプル数だけを用いて,新規なきめ細かい動作を認識することを目的とした,数発のきめ細かな動作認識問題を提案する。
粒度の粗い動作では進展があったが、既存の数発の認識手法では、粒度の細かい動作を扱う2つの問題に遭遇する。
論文 参考訳(メタデータ) (2021-08-15T02:21:01Z) - Conditional Variational Capsule Network for Open Set Recognition [64.18600886936557]
オープンセット認識では、分類器はトレーニング時に未知の未知のクラスを検出する必要がある。
最近提案されたカプセルネットワークは、特に画像認識において、多くの分野で代替案を上回ることが示されている。
本提案では,訓練中,同じ既知のクラスのカプセルの特徴を,事前に定義されたガウス型に適合させることを推奨する。
論文 参考訳(メタデータ) (2021-04-19T09:39:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。