論文の概要: Data-Free Class-Incremental Gesture Recognition with Prototype-Guided Pseudo Feature Replay
- arxiv url: http://arxiv.org/abs/2505.20049v1
- Date: Mon, 26 May 2025 14:37:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:43.515839
- Title: Data-Free Class-Incremental Gesture Recognition with Prototype-Guided Pseudo Feature Replay
- Title(参考訳): プロトタイプ誘導擬似特徴再生を用いたデータフリーなクラスインクリメンタルジェスチャ認識
- Authors: Hongsong Wang, Ao Sun, Jie Gui, Liang Wang,
- Abstract要約: 本稿では,PGPFR(Prototype-Guided Pseudo Feature Replay)フレームワークを提案する。
このフレームワークは、4つのコンポーネントで構成されている: Pseudo Feature Generation with Batch Prototypes (PFGBP), Variational Prototype Replay (VPR), Continual Re-Training (CCRT)。
- 参考スコア(独自算出の注目度): 17.780573542052434
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Gesture recognition is an important research area in the field of computer vision. Most gesture recognition efforts focus on close-set scenarios, thereby limiting the capacity to effectively handle unseen or novel gestures. We aim to address class-incremental gesture recognition, which entails the ability to accommodate new and previously unseen gestures over time. Specifically, we introduce a Prototype-Guided Pseudo Feature Replay (PGPFR) framework for data-free class-incremental gesture recognition. This framework comprises four components: Pseudo Feature Generation with Batch Prototypes (PFGBP), Variational Prototype Replay (VPR) for old classes, Truncated Cross-Entropy (TCE) for new classes, and Continual Classifier Re-Training (CCRT). To tackle the issue of catastrophic forgetting, the PFGBP dynamically generates a diversity of pseudo features in an online manner, leveraging class prototypes of old classes along with batch class prototypes of new classes. Furthermore, the VPR enforces consistency between the classifier's weights and the prototypes of old classes, leveraging class prototypes and covariance matrices to enhance robustness and generalization capabilities. The TCE mitigates the impact of domain differences of the classifier caused by pseudo features. Finally, the CCRT training strategy is designed to prevent overfitting to new classes and ensure the stability of features extracted from old classes. Extensive experiments conducted on two widely used gesture recognition datasets, namely SHREC 2017 3D and EgoGesture 3D, demonstrate that our approach outperforms existing state-of-the-art methods by 11.8\% and 12.8\% in terms of mean global accuracy, respectively. The code is available on https://github.com/sunao-101/PGPFR-3/.
- Abstract(参考訳): ジェスチャー認識はコンピュータビジョンの分野で重要な研究領域である。
ほとんどのジェスチャー認識の取り組みは、密集したシナリオに重点を置いているため、目に見えないジェスチャーや新しいジェスチャーを効果的に扱う能力を制限することができる。
クラスインクリメンタルなジェスチャー認識の実現を目指しており、新しいジェスチャーや以前は目に見えなかったジェスチャーを時間とともに扱えるようにすることを目指している。
具体的には,PGPFR(Prototype-Guided Pseudo Feature Replay)フレームワークを導入する。
Pseudo Feature Generation with Batch Prototypes (PFGBP), Variational Prototype Replay (VPR) for old class, Truncated Cross-Entropy (TCE) for new class, Continual Classifier Re-Training (CCRT) の4つのコンポーネントで構成されている。
破滅的な忘れの問題に対処するために、PFGBPは、新しいクラスのバッチクラスプロトタイプとともに、古いクラスのクラスプロトタイプを活用することで、オンラインの方法で、疑似特徴の多様性を動的に生成する。
さらに、VPRは分類器の重みと古いクラスのプロトタイプとの整合性を強制し、クラスプロトタイプと共分散行列を活用して堅牢性と一般化能力を向上する。
TCEは、疑似特徴による分類器のドメイン差の影響を緩和する。
最後に、CCRTトレーニング戦略は、新しいクラスへの過度な適合を防止し、古いクラスから抽出した機能の安定性を確保するために設計されている。
SHREC 2017 3D と EgoGesture 3D の2つの広く使われているジェスチャー認識データセットに対して行われた大規模な実験により、我々の手法は、平均的グローバル精度において、既存の最先端手法よりも11.8\%、12.8\%高い性能を示した。
コードはhttps://github.com/sunao-101/PGPFR-3/で公開されている。
関連論文リスト
- Proto-FG3D: Prototype-based Interpretable Fine-Grained 3D Shape Classification [59.68055837500357]
本稿では,3次元形状のきめ細かい分類のためのプロトタイプベースフレームワークProto-FG3Dを提案する。
Proto-FG3Dは、Prototype Associationを介して、共同でマルチビューとマルチカテゴリ表現学習を確立する。
Proto-FG3Dは、精度、透明な予測、そして視覚化によるアドホックな解釈可能性において最先端の手法を超越している。
論文 参考訳(メタデータ) (2025-05-23T09:31:02Z) - Efficient Non-Exemplar Class-Incremental Learning with Retrospective Feature Synthesis [21.348252135252412]
現在のNon-Exemplar Class-Incremental Learning (NECIL)メソッドは、クラス毎に1つのプロトタイプを格納することで、忘れを軽減している。
そこで本研究では,より効率的なNECIL手法を提案する。
提案手法は,非経験的クラスインクリメンタル学習の効率を大幅に向上させ,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-11-03T07:19:11Z) - Queryable Prototype Multiple Instance Learning with Vision-Language Models for Incremental Whole Slide Image Classification [10.667645628712542]
ホイルスライド画像(WSI)分類は臨床病理学に非常に重要な応用例である。
本稿では, 逐次WSI分類に特化して設計された, Queryable Prototype Multiple Instance Learning (QPMIL-VL) を用いた視覚言語ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-14T14:49:34Z) - Continual Gesture Learning without Data via Synthetic Feature Sampling [10.598646625077025]
DFCILは、古いクラスのトレーニングデータが利用できない場合でも、古いクラスの知識を再トレーニングしながら、モデルが新しいクラスを継続的に学習できるようにすることを目的としている。
SFR(Synthetic Feature Replay)を開発した。これは,クラスプロトタイプから合成特徴をサンプリングし,古いクラスを再生し,新しいクラスを増強するものだ。
提案手法は,全ステップにわたる平均精度で最大15%の精度向上を実現し,最先端技術に対する大幅な進歩を示す。
論文 参考訳(メタデータ) (2024-08-21T18:44:15Z) - Learning Prompt with Distribution-Based Feature Replay for Few-Shot Class-Incremental Learning [56.29097276129473]
分散型特徴再現(LP-DiF)を用いた学習プロンプト(Learning Prompt)という,シンプルで効果的なフレームワークを提案する。
新しいセッションでは,学習可能なプロンプトが古い知識を忘れないようにするため,擬似機能的リプレイ手法を提案する。
新しいセッションに進むと、古いクラスのディストリビューションと現在のセッションのトレーニングイメージを組み合わせて擬似フィーチャーをサンプリングして、プロンプトを最適化する。
論文 参考訳(メタデータ) (2024-01-03T07:59:17Z) - Rethinking Person Re-identification from a Projection-on-Prototypes
Perspective [84.24742313520811]
検索タスクとしてのPerson Re-IDentification(Re-ID)は,過去10年間で大きな発展を遂げてきた。
本稿では,新しいベースライン ProNet を提案する。
4つのベンチマークの実験では、提案したProNetは単純だが有効であり、以前のベースラインを大きく上回っている。
論文 参考訳(メタデータ) (2023-08-21T13:38:10Z) - Class Incremental Learning with Self-Supervised Pre-Training and
Prototype Learning [21.901331484173944]
授業の段階的学習における破滅的忘れの原因を分析した。
固定エンコーダと漸進的に更新されたプロトタイプ分類器を備えた2段階学習フレームワークを提案する。
本手法は古いクラスを保存したサンプルに頼らず,非例ベースのCIL法である。
論文 参考訳(メタデータ) (2023-08-04T14:20:42Z) - Neural Collapse Inspired Feature-Classifier Alignment for Few-Shot Class
Incremental Learning [120.53458753007851]
FSCIL(Few-shot class-incremental Learning)は、新しいセッションにおいて、新しいクラスごとにいくつかのトレーニングサンプルしかアクセスできないため、難しい問題である。
我々は最近発見された神経崩壊現象にインスパイアされたFSCILのこの不整合ジレンマに対処する。
我々は、FSCILのための神経崩壊誘発フレームワークを提案する。MiniImageNet、CUB-200、CIFAR-100データセットの実験により、提案したフレームワークが最先端のパフォーマンスより優れていることを示す。
論文 参考訳(メタデータ) (2023-02-06T18:39:40Z) - Dual Prototypical Contrastive Learning for Few-shot Semantic
Segmentation [55.339405417090084]
本稿では,FSSタスクに適合する2つの特徴的コントラスト学習手法を提案する。
第一の考え方は、プロトタイプの特徴空間におけるクラス内距離を減少させながら、クラス間距離を増やすことで、プロトタイプをより差別的にすることである。
提案手法は,PASCAL-5iおよびCOCO-20iデータセット上で,最先端のFSS手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-09T08:14:50Z) - Continual Semantic Segmentation via Repulsion-Attraction of Sparse and
Disentangled Latent Representations [18.655840060559168]
本稿では,セマンティックセグメンテーションにおけるクラス連続学習に着目した。
新しいカテゴリは時間とともに利用可能になり、以前のトレーニングデータは保持されない。
提案された連続学習スキームは、潜在空間を形作り、新しいクラスの認識を改善しながら忘れを減らす。
論文 参考訳(メタデータ) (2021-03-10T21:02:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。