論文の概要: Dynamic Class Queue for Large Scale Face Recognition In the Wild
- arxiv url: http://arxiv.org/abs/2105.11113v1
- Date: Mon, 24 May 2021 06:31:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 15:11:52.023139
- Title: Dynamic Class Queue for Large Scale Face Recognition In the Wild
- Title(参考訳): 野生の大規模顔認識のための動的クラスキュー
- Authors: Bi Li, Teng Xi, Gang Zhang, Haocheng Feng, Junyu Han, Jingtuo Liu,
Errui Ding, Wenyu Liu
- Abstract要約: 本研究は資源制約と長期クラス分布の計算に焦点をあてる。
これら2つの問題に対処するための動的クラスキュー(DCQ)を提案する。
大規模なデータセットでは、クラスのうち10%がすべてのクラスと同様のパフォーマンスを達成するのに十分であることを実証的に検証する。
- 参考スコア(独自算出の注目度): 45.3063075576461
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Learning discriminative representation using large-scale face datasets in the
wild is crucial for real-world applications, yet it remains challenging. The
difficulties lie in many aspects and this work focus on computing resource
constraint and long-tailed class distribution. Recently, classification-based
representation learning with deep neural networks and well-designed losses have
demonstrated good recognition performance. However, the computing and memory
cost linearly scales up to the number of identities (classes) in the training
set, and the learning process suffers from unbalanced classes. In this work, we
propose a dynamic class queue (DCQ) to tackle these two problems. Specifically,
for each iteration during training, a subset of classes for recognition are
dynamically selected and their class weights are dynamically generated
on-the-fly which are stored in a queue. Since only a subset of classes is
selected for each iteration, the computing requirement is reduced. By using a
single server without model parallel, we empirically verify in large-scale
datasets that 10% of classes are sufficient to achieve similar performance as
using all classes. Moreover, the class weights are dynamically generated in a
few-shot manner and therefore suitable for tail classes with only a few
instances. We show clear improvement over a strong baseline in the largest
public dataset Megaface Challenge2 (MF2) which has 672K identities and over 88%
of them have less than 10 instances. Code is available at
https://github.com/bilylee/DCQ
- Abstract(参考訳): 大規模な顔データセットを使って差別表現を学ぶことは、現実世界のアプリケーションには不可欠だが、それでも難しい。
困難は多くの側面で生じており、この研究はリソース制約と長い尾のクラス分布の計算に焦点を当てている。
近年,ディープニューラルネットワークを用いた分類に基づく表現学習とよく設計された損失の認識性能が向上している。
しかし、コンピュータとメモリのコストは、トレーニングセット内のアイデンティティ(クラス)の数まで線形にスケールし、学習プロセスは不均衡なクラスに悩まされる。
本研究では,これら2つの問題に対処するための動的クラスキュー(DCQ)を提案する。
具体的には、トレーニング中の各イテレーションに対して、認識のためのクラスのサブセットを動的に選択し、そのクラス重みをキューに格納したオンザフライで動的に生成する。
イテレーション毎にクラスの一部のみが選択されるため、計算要件が削減される。
モデル並列のない単一サーバを使用することで、大規模なデータセットにおいて、クラスの10%がすべてのクラスと同じパフォーマンスを達成するのに十分であることを示す。
さらに、クラス重みは、数ショットの方法で動的に生成され、わずかなインスタンスしか持たない末尾クラスに適している。
最大の公開データセットであるMegaface Challenge2(MF2)では、672KのIDを持ち、そのうち88%が10インスタンス未満である。
コードはhttps://github.com/bilylee/DCQで入手できる。
関連論文リスト
- Knowledge Adaptation Network for Few-Shot Class-Incremental Learning [23.90555521006653]
クラス増分学習(class-incremental learning)は、いくつかのサンプルを使用して、新しいクラスを段階的に認識することを目的としている。
この問題を解決する効果的な方法の1つは、原型進化分類器を構築することである。
新しいクラスの表現は弱で偏りがあるので、そのような戦略は準最適であると主張する。
論文 参考訳(メタデータ) (2024-09-18T07:51:38Z) - GMM-IL: Image Classification using Incrementally Learnt, Independent
Probabilistic Models for Small Sample Sizes [0.4511923587827301]
本稿では,視覚的特徴学習と確率モデルを組み合わせた2段階アーキテクチャを提案する。
我々は、ソフトマックスヘッドを用いた等価ネットワークのベンチマークを上回り、サンプルサイズが12以下の場合の精度が向上し、3つの不均衡なクラスプロファイルに対する重み付きF1スコアが向上した。
論文 参考訳(メタデータ) (2022-12-01T15:19:42Z) - Data augmentation on-the-fly and active learning in data stream
classification [9.367903089535684]
予測モデルをオンザフライでトレーニングする必要性が高まっている。
学習モデルは、アクティブな学習予算を増やすことなく、より多くのラベル付きデータにアクセスすることができる。
Augmented Queuesは、学習の質とスピードに関して、パフォーマンスを著しく向上させる。
論文 参考訳(メタデータ) (2022-10-13T09:57:08Z) - Class-Difficulty Based Methods for Long-Tailed Visual Recognition [6.875312133832079]
ロングテールデータセットは、クラスやカテゴリが他のクラスよりも多くのデータサンプルを持つ実際のユースケースで頻繁に発生する。
そこで本研究では,モデルの学習段階における各クラスの瞬時難易度を動的に測定する手法を提案する。
また,各学級の難易度尺度を用いて,学級難易度ベース重み付けと呼ばれる新しい学級難易度ベース重み付け手法と,学級難易度ベースサンプリングと呼ばれる新学級データサンプリング手法を設計する。
論文 参考訳(メタデータ) (2022-07-29T06:33:22Z) - Do Deep Networks Transfer Invariances Across Classes? [123.84237389985236]
ニュアンス変換を学習するための生成的アプローチが、クラス間での不変性の伝達にどのように役立つかを示す。
この結果から,不均衡分布や細長い分布に対して分類器が不規則に一般化する理由が示唆された。
論文 参考訳(メタデータ) (2022-03-18T04:38:18Z) - Improving Calibration for Long-Tailed Recognition [68.32848696795519]
このようなシナリオにおけるキャリブレーションとパフォーマンスを改善する2つの方法を提案します。
異なるサンプルによるデータセットバイアスに対して,シフトバッチ正規化を提案する。
提案手法は,複数の長尾認識ベンチマークデータセットに新しいレコードをセットする。
論文 参考訳(メタデータ) (2021-04-01T13:55:21Z) - ResLT: Residual Learning for Long-tailed Recognition [64.19728932445523]
本稿では,パラメータ空間の側面から,より基本的なロングテール認識の視点を提案する。
すべてのクラスから画像を認識するために最適化されたメインブランチと、medium+tailクラスとtailクラスからのイメージを強化するために徐々に2つの残りのブランチを融合して最適化する。
我々は、CIFAR-10、CIFAR-100、Places、ImageNet、iNaturalist 2018の長期バージョンであるいくつかのベンチマークでこの方法をテストする。
論文 参考訳(メタデータ) (2021-01-26T08:43:50Z) - Feature Space Augmentation for Long-Tailed Data [74.65615132238291]
実世界のデータは、各クラスの周波数が典型的に異なるため、長い尾の分布に従うことが多い。
データ再サンプリングと拡張に関するクラスバランス損失と高度な手法は、データの不均衡問題を解決するためのベストプラクティスのひとつです。
提案手法は,多種多様なサンプルを持つクラスから学習した特徴量を用いて,特徴空間における表現不足のクラスを増大させることによって,長鎖問題に対処する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-08-09T06:38:00Z) - Many-Class Few-Shot Learning on Multi-Granularity Class Hierarchy [57.68486382473194]
我々は,教師付き学習とメタ学習の両方において,MCFS(Multi-class few-shot)問題について検討した。
本稿では,クラス階層を事前知識として活用し,粗大な分類器を訓練する。
モデル「メモリ拡張階層分類ネットワーク(MahiNet)」は、各粗いクラスが複数の細かなクラスをカバーできる粗い粒度分類を行う。
論文 参考訳(メタデータ) (2020-06-28T01:11:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。