論文の概要: CLFace: A Scalable and Resource-Efficient Continual Learning Framework for Lifelong Face Recognition
- arxiv url: http://arxiv.org/abs/2411.13886v1
- Date: Thu, 21 Nov 2024 06:55:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-22 15:19:10.871962
- Title: CLFace: A Scalable and Resource-Efficient Continual Learning Framework for Lifelong Face Recognition
- Title(参考訳): CLFace:生涯顔認識のためのスケーラブルでリソース効率の良い連続学習フレームワーク
- Authors: Md Mahedi Hasan, Shoaib Meraj Sami, Nasser Nasrabadi,
- Abstract要約: CLFaceは学習知識の保存と漸進的な拡張を目的とした継続的学習フレームワークである。
分類層を排除し、生涯学習を通して固定された資源効率の高いFRモデルをもたらす。
教師モデルの特徴埋め込みの向きを維持するために、幾何学保存蒸留スキームが組み込まれている。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: An important aspect of deploying face recognition (FR) algorithms in real-world applications is their ability to learn new face identities from a continuous data stream. However, the online training of existing deep neural network-based FR algorithms, which are pre-trained offline on large-scale stationary datasets, encounter two major challenges: (I) catastrophic forgetting of previously learned identities, and (II) the need to store past data for complete retraining from scratch, leading to significant storage constraints and privacy concerns. In this paper, we introduce CLFace, a continual learning framework designed to preserve and incrementally extend the learned knowledge. CLFace eliminates the classification layer, resulting in a resource-efficient FR model that remains fixed throughout lifelong learning and provides label-free supervision to a student model, making it suitable for open-set face recognition during incremental steps. We introduce an objective function that employs feature-level distillation to reduce drift between feature maps of the student and teacher models across multiple stages. Additionally, it incorporates a geometry-preserving distillation scheme to maintain the orientation of the teacher model's feature embedding. Furthermore, a contrastive knowledge distillation is incorporated to continually enhance the discriminative power of the feature representation by matching similarities between new identities. Experiments on several benchmark FR datasets demonstrate that CLFace outperforms baseline approaches and state-of-the-art methods on unseen identities using both in-domain and out-of-domain datasets.
- Abstract(参考訳): 現実のアプリケーションに顔認識(FR)アルゴリズムをデプロイする上で重要な側面は、連続したデータストリームから新しい顔の同一性を学ぶ能力である。
しかし、大規模な定常データセット上でオフラインでトレーニングされている既存のディープニューラルネットワークベースのFRアルゴリズムのオンライントレーニングでは、2つの大きな課題に直面している。
本稿では,学習知識の保存と漸進的拡張を目的とした継続的学習フレームワークCLFaceを紹介する。
CLFaceは分類層を排除し、生涯学習を通して固定された資源効率の高いFRモデルとなり、学生モデルにラベルのない監督を提供する。
複数の段階にわたる生徒と教師のモデルの特徴マップ間のドリフトを低減するために,特徴量蒸留を用いた客観的関数を導入する。
さらに、教師モデルの特徴埋め込みの向きを維持するための幾何学保存蒸留スキームも組み込まれている。
さらに、新しいアイデンティティ間の類似性を一致させることにより、特徴表現の識別力を高めるために、対照的な知識蒸留が組み込まれている。
いくつかのベンチマークFRデータセットの実験では、CLFaceは、ドメイン内と外部の両方のデータセットを使用して、未確認のIDに対してベースラインアプローチと最先端メソッドより優れていることが示されている。
関連論文リスト
- Federated Learning for Face Recognition via Intra-subject Self-supervised Learning [3.9899461012388504]
対象を含まない顔認識モデルを学習するためのFedFS (Federated Learning for Personal Face Recognition via intra-ject Self-supervised Learning framework)を提案する。
FedFSは、ローカルモデルとグローバルモデルの集約された特徴を活用して、オフザシェルフモデルの表現に協力する2つの重要なコンポーネントから構成される。
我々は,DigiFace-1MおよびVGGFaceデータセットの総合的な実験を行い,従来の手法と比較して優れた性能を示した。
論文 参考訳(メタデータ) (2024-07-23T08:43:42Z) - Generative Model-based Feature Knowledge Distillation for Action
Recognition [11.31068233536815]
本稿では,軽量学生モデルの学習のための生成モデルを用いた,革新的な知識蒸留フレームワークについて紹介する。
提案手法の有効性は,多種多様な人気データセットに対する総合的な実験によって実証される。
論文 参考訳(メタデータ) (2023-12-14T03:55:29Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - Continual Facial Expression Recognition: A Benchmark [3.181579197770883]
本研究は、FERタスク上でのCL技術の評価を行うConFER(Continuous Facial Expression Recognition)ベンチマークを示す。
これは、CK+、RAF-DB、AffectNetといった一般的なFERデータセットに対するCLベースのアプローチの比較分析である。
CL技術は、異なる学習環境下で、複数のデータセットで最先端(SOTA)パフォーマンスを達成することが示されている。
論文 参考訳(メタデータ) (2023-05-10T20:35:38Z) - Mitigating Forgetting in Online Continual Learning via Contrasting
Semantically Distinct Augmentations [22.289830907729705]
オンライン連続学習(OCL)は、非定常データストリームからモデル学習を可能とし、新たな知識を継続的に獲得し、学習した知識を維持することを目的としている。
主な課題は、"破滅的な忘れる"問題、すなわち、新しい知識を学習しながら学習した知識を十分に記憶できないことにある。
論文 参考訳(メタデータ) (2022-11-10T05:29:43Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - On Exploring Pose Estimation as an Auxiliary Learning Task for
Visible-Infrared Person Re-identification [66.58450185833479]
本稿では,Pose Estimationを補助学習タスクとして活用して,エンドツーエンドフレームワークにおけるVI-ReIDタスクを支援する。
これら2つのタスクを相互に有利な方法で共同でトレーニングすることにより、高品質なモダリティ共有とID関連の特徴を学習する。
2つのベンチマークVI-ReIDデータセットの実験結果から,提案手法は一定のマージンで最先端の手法を継続的に改善することが示された。
論文 参考訳(メタデータ) (2022-01-11T09:44:00Z) - Federated Learning for Face Recognition with Gradient Correction [52.896286647898386]
本稿では,顔認識のためのフェデレーション学習に取り組むためのフレームワークであるFedGCを紹介する。
我々は,FedGCが標準ソフトマックスと同様の損失関数を構成することを示す。
論文 参考訳(メタデータ) (2021-12-14T09:19:29Z) - Continual Semantic Segmentation via Repulsion-Attraction of Sparse and
Disentangled Latent Representations [18.655840060559168]
本稿では,セマンティックセグメンテーションにおけるクラス連続学習に着目した。
新しいカテゴリは時間とともに利用可能になり、以前のトレーニングデータは保持されない。
提案された連続学習スキームは、潜在空間を形作り、新しいクラスの認識を改善しながら忘れを減らす。
論文 参考訳(メタデータ) (2021-03-10T21:02:05Z) - Incremental Embedding Learning via Zero-Shot Translation [65.94349068508863]
現在の最先端のインクリメンタル学習手法は、従来の分類ネットワークにおける破滅的な忘れ方問題に取り組む。
ゼロショット変換クラス増分法(ZSTCI)と呼ばれる新しい組込みネットワークのクラス増分法を提案する。
さらに、ZSTCIを既存の正規化ベースのインクリメンタル学習手法と組み合わせることで、組み込みネットワークの性能をより向上させることができる。
論文 参考訳(メタデータ) (2020-12-31T08:21:37Z) - Dual-Refinement: Joint Label and Feature Refinement for Unsupervised
Domain Adaptive Person Re-Identification [51.98150752331922]
Unsupervised Domain Adaptive (UDA) Person Re-identification (再ID) は、ターゲットドメインデータのラベルが欠落しているため、難しい作業です。
オフラインクラスタリングフェーズにおける擬似ラベルとオンライントレーニングフェーズにおける特徴を共同で改良する,デュアルリファインメントと呼ばれる新しいアプローチを提案する。
本手法は最先端手法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2020-12-26T07:35:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。