論文の概要: Continual Representation Learning for Biometric Identification
- arxiv url: http://arxiv.org/abs/2006.04455v2
- Date: Sun, 28 Jun 2020 19:54:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 02:01:43.507741
- Title: Continual Representation Learning for Biometric Identification
- Title(参考訳): 生体認証のための連続表現学習
- Authors: Bo Zhao, Shixiang Tang, Dapeng Chen, Hakan Bilen, Rui Zhao
- Abstract要約: 本稿では,連続的な表現の学習に焦点をあてた「連続的な表現の学習」という,新たなCL(Continuous Learning)設定を提案する。
既存のCL手法が新しい設定での表現を改善することを実証し,提案手法は競合手法よりも優れた結果が得られることを示した。
- 参考スコア(独自算出の注目度): 47.15075374158398
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the explosion of digital data in recent years, continuously learning new
tasks from a stream of data without forgetting previously acquired knowledge
has become increasingly important. In this paper, we propose a new continual
learning (CL) setting, namely ``continual representation learning'', which
focuses on learning better representation in a continuous way. We also provide
two large-scale multi-step benchmarks for biometric identification, where the
visual appearance of different classes are highly relevant. In contrast to
requiring the model to recognize more learned classes, we aim to learn feature
representation that can be better generalized to not only previously unseen
images but also unseen classes/identities. For the new setting, we propose a
novel approach that performs the knowledge distillation over a large number of
identities by applying the neighbourhood selection and consistency relaxation
strategies to improve scalability and flexibility of the continual learning
model. We demonstrate that existing CL methods can improve the representation
in the new setting, and our method achieves better results than the
competitors.
- Abstract(参考訳): 近年,デジタルデータの普及に伴い,従来の知識を忘れずにデータストリームから新たなタスクを継続的に学習することがますます重要になっている。
本稿では,「連続的表現学習」という,連続的な表現の学習に焦点をあてた新しい連続的学習(CL)環境を提案する。
また,生体認証のための大規模マルチステップベンチマークを2つ提供し,異なるクラスの視覚的外観が極めて関連性が高いことを示した。
モデルがより学習されたクラスを認識することを要求するのとは対照的に、これまで見えない画像だけでなく、目に見えないクラスやアイデンティティにもより一般化できる特徴表現を学習することを目指している。
そこで本研究では,連続学習モデルのスケーラビリティと柔軟性を向上させるために,近隣選択と一貫性緩和戦略を適用し,多数のアイデンティティに対して知識蒸留を行う新しい手法を提案する。
既存のclメソッドが新しい設定で表現を改善できることを実証し,提案手法が競合手法よりも優れた結果が得られることを示す。
関連論文リスト
- Incremental Object Detection with CLIP [36.478530086163744]
そこで本研究では,CLIPなどの視覚言語モデルを用いて,異なるクラス集合に対するテキスト特徴埋め込みを生成する。
次に、段階的なシナリオをシミュレートするために、早期の学習段階において利用できない新しいクラスを置き換えるために、スーパークラスを使用します。
そこで我々は,この微妙に認識された検出ボックスを擬似アノテーションとしてトレーニングプロセスに組み込むことにより,検出性能をさらに向上させる。
論文 参考訳(メタデータ) (2023-10-13T01:59:39Z) - Multi-View Class Incremental Learning [57.14644913531313]
マルチビュー学習(MVL)は、下流タスクのパフォーマンスを改善するためにデータセットの複数の視点から情報を統合することで大きな成功を収めている。
本稿では,複数視点クラスインクリメンタルラーニング(MVCIL)と呼ばれる新しいパラダイムについて考察する。
論文 参考訳(メタデータ) (2023-06-16T08:13:41Z) - Mitigating Forgetting in Online Continual Learning via Contrasting
Semantically Distinct Augmentations [22.289830907729705]
オンライン連続学習(OCL)は、非定常データストリームからモデル学習を可能とし、新たな知識を継続的に獲得し、学習した知識を維持することを目的としている。
主な課題は、"破滅的な忘れる"問題、すなわち、新しい知識を学習しながら学習した知識を十分に記憶できないことにある。
論文 参考訳(メタデータ) (2022-11-10T05:29:43Z) - Effects of Auxiliary Knowledge on Continual Learning [16.84113206569365]
連続学習(CL)では、ニューラルネットワークは、時間とともに分布が変化するデータのストリームに基づいて訓練される。
既存のCLアプローチのほとんどは、獲得した知識を保存するソリューションを見つけることに重点を置いている。
モデルが新しいタスクを継続的に学習する必要があるため、タスク学習の後に改善する可能性のある現在の知識に焦点を合わせることも重要である、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-03T14:31:59Z) - LifeLonger: A Benchmark for Continual Disease Classification [59.13735398630546]
MedMNISTコレクションの連続的な疾患分類のためのベンチマークであるLifeLongerを紹介する。
タスクとクラスでの病気の漸進的な学習は、モデルをスクラッチから再トレーニングすることなく、新しいサンプルを分類する問題に対処する。
クロスドメインインクリメンタル学習は、これまで得られた知識を維持しながら、異なる機関から派生したデータセットを扱う問題に対処する。
論文 参考訳(メタデータ) (2022-04-12T12:25:05Z) - Long-tail Recognition via Compositional Knowledge Transfer [60.03764547406601]
末尾クラスの少数ショット問題に対処する長尾認識のための新しい戦略を導入する。
我々の目標は、情報に富んだ共通クラスから得られた知識を、意味的に類似しているがデータに富む稀なクラスに伝達することである。
実験結果から,本手法は稀なクラスにおいて,堅牢な共通クラス性能を維持しつつ,大幅な性能向上を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-12-13T15:48:59Z) - Semi-Supervising Learning, Transfer Learning, and Knowledge Distillation
with SimCLR [2.578242050187029]
半教師付き学習の分野における最近のブレークスルーは、最先端の従来の教師付き学習手法と一致する結果を得た。
SimCLRは、コンピュータビジョンのための最先端の半教師付き学習フレームワークである。
論文 参考訳(メタデータ) (2021-08-02T01:37:39Z) - Class-Balanced Distillation for Long-Tailed Visual Recognition [100.10293372607222]
実世界のイメージはしばしばクラスごとの画像数の著しい不均衡によって特徴づけられ、ロングテール分布に繋がる。
本研究では、インスタンスサンプリングで学習した特徴表現が長尾設定では最適とは程遠いという重要な観察を行うことで、新しいフレームワークを提案する。
我々の主な貢献は、知識蒸留を利用して特徴表現を強化する新しい訓練方法である。
論文 参考訳(メタデータ) (2021-04-12T08:21:03Z) - DER: Dynamically Expandable Representation for Class Incremental
Learning [30.573653645134524]
適応型視覚知能の実現に向けた中核的なステップであるクラスインクリメンタル学習の課題に対処する。
より効果的なインクリメンタルな概念モデリングに動的に拡張可能な表現を利用する新しい2段階学習手法を提案する。
我々は,3種類のインクリメンタル学習ベンチマークを広範囲に実験し,その手法が他の手法よりも高いマージンを示した。
論文 参考訳(メタデータ) (2021-03-31T03:16:44Z) - Learning From Multiple Experts: Self-paced Knowledge Distillation for
Long-tailed Classification [106.08067870620218]
我々は,LFME(Learning From Multiple Experts)と呼ばれる自己評価型知識蒸留フレームワークを提案する。
提案するLFMEフレームワークは,複数の'Experts'からの知識を集約して,統一された学生モデルを学ぶ。
提案手法は,最先端の手法に比べて優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-01-06T12:57:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。