論文の概要: CurricularFace: Adaptive Curriculum Learning Loss for Deep Face
Recognition
- arxiv url: http://arxiv.org/abs/2004.00288v1
- Date: Wed, 1 Apr 2020 08:43:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 18:54:30.340575
- Title: CurricularFace: Adaptive Curriculum Learning Loss for Deep Face
Recognition
- Title(参考訳): CurricularFace:ディープラーニングのための適応型カリキュラム学習損失
- Authors: Yuge Huang, Yuhan Wang, Ying Tai, Xiaoming Liu, Pengcheng Shen,
Shaoxin Li, Jilin Li, Feiyue Huang
- Abstract要約: 本稿では,カリキュラム学習の概念を損失関数に組み込んだ適応型カリキュラム学習損失(CurricularFace)を提案する。
我々のCurricularFaceは、異なるトレーニング段階における簡単なサンプルとハードサンプルの相対的重要性を適応的に調整する。
- 参考スコア(独自算出の注目度): 79.92240030758575
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As an emerging topic in face recognition, designing margin-based loss
functions can increase the feature margin between different classes for
enhanced discriminability. More recently, the idea of mining-based strategies
is adopted to emphasize the misclassified samples, achieving promising results.
However, during the entire training process, the prior methods either do not
explicitly emphasize the sample based on its importance that renders the hard
samples not fully exploited; or explicitly emphasize the effects of
semi-hard/hard samples even at the early training stage that may lead to
convergence issue. In this work, we propose a novel Adaptive Curriculum
Learning loss (CurricularFace) that embeds the idea of curriculum learning into
the loss function to achieve a novel training strategy for deep face
recognition, which mainly addresses easy samples in the early training stage
and hard ones in the later stage. Specifically, our CurricularFace adaptively
adjusts the relative importance of easy and hard samples during different
training stages. In each stage, different samples are assigned with different
importance according to their corresponding difficultness. Extensive
experimental results on popular benchmarks demonstrate the superiority of our
CurricularFace over the state-of-the-art competitors.
- Abstract(参考訳): 顔認識における新たなトピックとして、マージンに基づく損失関数の設計は、識別性を高めるために異なるクラス間の特徴マージンを増加させることができる。
近年,鉱業戦略の考え方が誤分類標本を強調するために採用され,有望な結果が得られた。
しかしながら、トレーニングプロセス全体において、事前の手法は、十分に活用されていないハードサンプルの重要さに基づいてサンプルを明示的に強調しないか、あるいは、収束問題につながる可能性のある初期のトレーニング段階でもセミハード/ハードサンプルの効果を明確に強調する。
そこで本研究では,教育課程学習のアイデアを損失関数に組み込んだ新しい適応型カリキュラム学習損失(curricularface)を提案する。
具体的には,異なるトレーニングステージにおいて,簡便でハードなサンプルの相対的重要性を適応的に調整する。
それぞれの段階において、異なるサンプルが対応する困難度に応じて異なる重要度で割り当てられる。
人気のあるベンチマークの広範な実験結果は、最先端の競争相手よりも、私たちのカーキュリーフェイスが優れていることを示している。
関連論文リスト
- Boosting Semi-Supervised Scene Text Recognition via Viewing and Summarizing [71.29488677105127]
既存のシーンテキスト認識(STR)手法は、特に芸術的で歪んだ文字に対して、挑戦的なテキストを認識するのに苦労している。
人的コストを伴わずに、合成データと実際のラベルなしデータを活用して、対照的な学習ベースのSTRフレームワークを提案する。
本手法は,共通ベンチマークとUnion14M-Benchmarkで平均精度94.7%,70.9%のSOTA性能を実現する。
論文 参考訳(メタデータ) (2024-11-23T15:24:47Z) - Preview-based Category Contrastive Learning for Knowledge Distillation [53.551002781828146]
知識蒸留(PCKD)のための新しい予見型カテゴリーコントラスト学習法を提案する。
まず、インスタンスレベルの特徴対応と、インスタンスの特徴とカテゴリ中心の関係の両方の構造的知識を蒸留する。
カテゴリ表現を明示的に最適化し、インスタンスとカテゴリの表現を明確に関連付けることができる。
論文 参考訳(メタデータ) (2024-10-18T03:31:00Z) - Fair Few-shot Learning with Auxiliary Sets [53.30014767684218]
多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2023-08-28T06:31:37Z) - DiscrimLoss: A Universal Loss for Hard Samples and Incorrect Samples
Discrimination [28.599571524763785]
ラベルノイズ(すなわち不正なデータ)が与えられた場合、ディープニューラルネットワークはラベルノイズとモデル性能を徐々に記憶する。
この問題を解消するために,カリキュラム学習を提案し,学習サンプルを有意義な順序で順序付けすることで,モデル性能と一般化を向上させる。
論文 参考訳(メタデータ) (2022-08-21T13:38:55Z) - A Framework using Contrastive Learning for Classification with Noisy
Labels [1.2891210250935146]
雑音ラベルの存在下で画像分類を行うために,コントラスト学習を事前学習タスクとして利用するフレームワークを提案する。
擬似ラベル, ガウス混合モデルを用いたサンプル選択, 重み付き教師付きコントラスト学習などの近年の戦略は, 事前学習後の微調整相に組み合わされている。
論文 参考訳(メタデータ) (2021-04-19T18:51:22Z) - Cross-Domain Similarity Learning for Face Recognition in Unseen Domains [90.35908506994365]
本研究では,cdt(cross-domain triplet, クロスドメイントリプレット)の損失を推測する新しいクロスドメインメトリック学習損失法を提案する。
CDT損失は、一つのドメインからコンパクトな特徴クラスタを強制することによって意味論的に意味のある特徴の学習を促進する。
本手法では,トレーニング中,注意深いハードペアサンプルマイニングおよびフィルタリング戦略は必要としない。
論文 参考訳(メタデータ) (2021-03-12T19:48:01Z) - Dynamic Sampling for Deep Metric Learning [7.010669841466896]
深度メートル法学習は、視覚的に類似した画像を近くの場所にマッピングし、埋め込み多様体内の互いに視覚的に異なる画像を分離する。
トレーニングペアをネットワークに送受信し易い順に整理する動的サンプリング戦略を提案する。
これにより、ネットワークは、初期の簡単なトレーニングペアからカテゴリ間の一般的な境界を学習し、後のハードトレーニングサンプルに主に依存したモデルの詳細を確定することができる。
論文 参考訳(メタデータ) (2020-04-24T09:47:23Z) - Improving Face Recognition from Hard Samples via Distribution
Distillation Loss [131.61036519863856]
大きな顔のバリエーションは、顔認識の主要な課題である。
本研究では, 簡単な試料と硬質試料との性能ギャップを狭めるために, 新規な分散蒸留損失を提案する。
我々は、人種、解像度、ポーズに様々なバリエーションがある一般的な大規模顔のベンチマークとベンチマークの両方について広範な実験を行った。
論文 参考訳(メタデータ) (2020-02-10T11:25:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。