論文の概要: Improving Face Recognition from Hard Samples via Distribution
Distillation Loss
- arxiv url: http://arxiv.org/abs/2002.03662v3
- Date: Sat, 18 Jul 2020 15:00:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 09:09:59.166489
- Title: Improving Face Recognition from Hard Samples via Distribution
Distillation Loss
- Title(参考訳): 分散蒸留損失による硬質試料からの顔認識の改善
- Authors: Yuge Huang, Pengcheng Shen, Ying Tai, Shaoxin Li, Xiaoming Liu, Jilin
Li, Feiyue Huang, Rongrong Ji
- Abstract要約: 大きな顔のバリエーションは、顔認識の主要な課題である。
本研究では, 簡単な試料と硬質試料との性能ギャップを狭めるために, 新規な分散蒸留損失を提案する。
我々は、人種、解像度、ポーズに様々なバリエーションがある一般的な大規模顔のベンチマークとベンチマークの両方について広範な実験を行った。
- 参考スコア(独自算出の注目度): 131.61036519863856
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large facial variations are the main challenge in face recognition. To this
end, previous variation-specific methods make full use of task-related prior to
design special network losses, which are typically not general among different
tasks and scenarios. In contrast, the existing generic methods focus on
improving the feature discriminability to minimize the intra-class distance
while maximizing the interclass distance, which perform well on easy samples
but fail on hard samples. To improve the performance on those hard samples for
general tasks, we propose a novel Distribution Distillation Loss to narrow the
performance gap between easy and hard samples, which is a simple, effective and
generic for various types of facial variations. Specifically, we first adopt
state-of-the-art classifiers such as ArcFace to construct two similarity
distributions: teacher distribution from easy samples and student distribution
from hard samples. Then, we propose a novel distribution-driven loss to
constrain the student distribution to approximate the teacher distribution,
which thus leads to smaller overlap between the positive and negative pairs in
the student distribution. We have conducted extensive experiments on both
generic large-scale face benchmarks and benchmarks with diverse variations on
race, resolution and pose. The quantitative results demonstrate the superiority
of our method over strong baselines, e.g., Arcface and Cosface.
- Abstract(参考訳): 大きな顔のバリエーションが顔認識の主な課題である。
この目的のために、従来のバリエーション特化手法は特別なネットワーク損失を設計する前にタスク関連をフル活用するが、これは通常、異なるタスクやシナリオでは一般的ではない。
対照的に、既存のジェネリックメソッドでは、クラス間距離を最大化しながらクラス間距離を最小化するために特徴識別性の改善に重点を置いている。
そこで本研究では,これらの硬質試料の性能を向上させるため,簡易・硬質試料間の性能差を狭めるための分散蒸留損失法を提案する。
具体的には,まずarcfaceなどの最先端の分類器を用いて,簡単なサンプルからの教師分布とハードサンプルからの学生分布の2つの類似性分布を構築する。
そこで本研究では,生徒分布を制約し,教師分布を近似する新たな分布駆動損失を提案し,学生分布における正対と負対の重なりが小さくなった。
我々は,汎用的な大規模顔ベンチマークと,人種,解像度,ポーズの多種多様なベンチマークについて広範な実験を行った。
定量的な結果は,arcface や cosface など,強力なベースラインよりも優れていることを示す。
関連論文リスト
- DiscrimLoss: A Universal Loss for Hard Samples and Incorrect Samples
Discrimination [28.599571524763785]
ラベルノイズ(すなわち不正なデータ)が与えられた場合、ディープニューラルネットワークはラベルノイズとモデル性能を徐々に記憶する。
この問題を解消するために,カリキュラム学習を提案し,学習サンプルを有意義な順序で順序付けすることで,モデル性能と一般化を向上させる。
論文 参考訳(メタデータ) (2022-08-21T13:38:55Z) - Few-shot Forgery Detection via Guided Adversarial Interpolation [56.59499187594308]
既存の偽造検出手法は、見知らぬ新しい偽造手法に適用した場合、大幅な性能低下に悩まされる。
本稿では,数発の偽造検出問題を克服するために,GAI(Guid Adversarial Interpolation)を提案する。
我々の手法は、多数派と少数派の偽造アプローチの選択に対して堅牢であることが検証されている。
論文 参考訳(メタデータ) (2022-04-12T16:05:10Z) - OTFace: Hard Samples Guided Optimal Transport Loss for Deep Face
Representation [31.220594076407444]
大規模な顔の変動のため、野生での顔の表現は非常に難しい。
本稿では,ディープフェイス表現のためのハードサンプル誘導最適トランスポート(OT)ロスを提案する。
論文 参考訳(メタデータ) (2022-03-28T02:57:04Z) - Jo-SRC: A Contrastive Approach for Combating Noisy Labels [58.867237220886885]
Jo-SRC (Joint Sample Selection and Model Regularization based on Consistency) というノイズロバスト手法を提案する。
具体的には、対照的な学習方法でネットワークをトレーニングする。
各サンプルの2つの異なるビューからの予測は、クリーンまたは分布不足の「可能性」を推定するために使用されます。
論文 参考訳(メタデータ) (2021-03-24T07:26:07Z) - CurricularFace: Adaptive Curriculum Learning Loss for Deep Face
Recognition [79.92240030758575]
本稿では,カリキュラム学習の概念を損失関数に組み込んだ適応型カリキュラム学習損失(CurricularFace)を提案する。
我々のCurricularFaceは、異なるトレーニング段階における簡単なサンプルとハードサンプルの相対的重要性を適応的に調整する。
論文 参考訳(メタデータ) (2020-04-01T08:43:10Z) - One-Shot Domain Adaptation For Face Generation [34.882820002799626]
本稿では,与えられた一発例と同じ分布に陥る顔画像を生成するフレームワークを提案する。
出力の高レベル分布を目標にシフトするために,モデルの重みを迅速に適応させる反復最適化手法を開発した。
同じ分布の画像を生成するために,ターゲットからランダムに生成した顔へ低レベル統計を転送するスタイルミキシング手法を提案する。
論文 参考訳(メタデータ) (2020-03-28T18:50:13Z) - Towards Universal Representation Learning for Deep Face Recognition [106.21744671876704]
対象のドメイン知識を活用せずに、与えられたトレーニングデータに見つからない大きな変化に対処できる普遍的な表現学習フレームワークを提案する。
実験により,LFW や MegaFace などの一般的な顔認識データセットにおいて,本手法が最高性能を実現することを示す。
論文 参考訳(メタデータ) (2020-02-26T23:29:57Z) - When Relation Networks meet GANs: Relation GANs with Triplet Loss [110.7572918636599]
GAN(Generative Adversarial Network)の学習安定性はいまだに悩みの種である
本稿では,判別器のための関係ネットワークアーキテクチャについて検討し,より優れた一般化と安定性を実現する三重項損失を設計する。
ベンチマークデータセットの実験により、提案された関係判別器と新たな損失は、可変視覚タスクに大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-02-24T11:35:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。