論文の概要: AdaSin: Enhancing Hard Sample Metrics with Dual Adaptive Penalty for Face Recognition
- arxiv url: http://arxiv.org/abs/2503.03528v1
- Date: Wed, 05 Mar 2025 14:11:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-06 15:53:25.587257
- Title: AdaSin: Enhancing Hard Sample Metrics with Dual Adaptive Penalty for Face Recognition
- Title(参考訳): AdaSin: 顔認識のためのデュアルアダプティブペナルティによるハードサンプルメトリクスの強化
- Authors: Qiqi Guo, Zhuowen Zheng, Guanghua Yang, Zhiquan Liu, Xiaofan Li, Jianqing Li, Jinyu Tian, Xueyuan Gong,
- Abstract要約: 本稿では,新しい難易度指標として,サンプルの埋め込み特徴と接地トラスクラス中心との間の角度の正弦を導入するアダプティブ・シン(AdaSin)損失関数を提案する。
AdaSinは他の最先端手法よりも精度が高い。
- 参考スコア(独自算出の注目度): 12.570787482091967
- License:
- Abstract: In recent years, the emergence of deep convolutional neural networks has positioned face recognition as a prominent research focus in computer vision. Traditional loss functions, such as margin-based, hard-sample mining-based, and hybrid approaches, have achieved notable performance improvements, with some leveraging curriculum learning to optimize training. However, these methods often fall short in effectively quantifying the difficulty of hard samples. To address this, we propose Adaptive Sine (AdaSin) loss function, which introduces the sine of the angle between a sample's embedding feature and its ground-truth class center as a novel difficulty metric. This metric enables precise and effective penalization of hard samples. By incorporating curriculum learning, the model dynamically adjusts classification boundaries across different training stages. Unlike previous adaptive-margin loss functions, AdaSin introduce a dual adaptive penalty, applied to both the positive and negative cosine similarities of hard samples. This design imposes stronger constraints, enhancing intra-class compactness and inter-class separability. The combination of the dual adaptive penalty and curriculum learning is guided by a well-designed difficulty metric. It enables the model to focus more effectively on hard samples in later training stages, and lead to the extraction of highly discriminative face features. Extensive experiments across eight benchmarks demonstrate that AdaSin achieves superior accuracy compared to other state-of-the-art methods.
- Abstract(参考訳): 近年、深層畳み込みニューラルネットワークの出現は、顔認識をコンピュータビジョンにおける顕著な研究の焦点と位置づけている。
マージンベース、ハードサンプルマイニングベース、ハイブリッドアプローチといった伝統的な損失関数は、トレーニングを最適化するためにカリキュラムの学習を活用するなど、顕著なパフォーマンス改善を実現している。
しかし、これらの手法は、しばしばハードサンプルの難易度を効果的に定量化するのに不足する。
そこで本研究では,サンプルの埋め込み特徴と接地トラスクラス中心との間の角度の正弦を,新しい難易度指標として導入するアダシン(Adaptive Sine, AdaSin)損失関数を提案する。
この計量は、ハードサンプルの精密かつ効果的なペナル化を可能にする。
カリキュラム学習を取り入れることで、モデルは異なる訓練段階の分類境界を動的に調整する。
従来のアダプティブマージン損失関数とは異なり、AdaSinは二重適応ペナルティを導入し、ハードサンプルの正と負のコサイン類似性の両方に適用した。
この設計は強い制約を課し、クラス内のコンパクト性とクラス間の分離性を高める。
二重適応型ペナルティとカリキュラム学習の組み合わせは、よく設計された難易度によって導かれる。
これにより、後の訓練段階において、モデルはより効果的にハードサンプルに焦点を合わせることができ、非常に差別的な顔の特徴を抽出することができる。
8つのベンチマークにわたる大規模な実験では、AdaSinは他の最先端の手法よりも精度が高いことが示されている。
関連論文リスト
- PseudoNeg-MAE: Self-Supervised Point Cloud Learning using Conditional Pseudo-Negative Embeddings [55.55445978692678]
PseudoNeg-MAEは,ポイントマスク自動エンコーダのグローバルな特徴表現を強化する,自己教師型学習フレームワークである。
PseudoNeg-MAE は ModelNet40 と ScanObjectNN のデータセット上で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-09-24T07:57:21Z) - SoftMatch: Addressing the Quantity-Quality Trade-off in Semi-supervised
Learning [101.86916775218403]
本稿では, サンプル重み付けを統一した定式化により, 一般的な擬似ラベル法を再検討する。
トレーニング中の擬似ラベルの量と質を両立させることでトレードオフを克服するSoftMatchを提案する。
実験では、画像、テキスト、不均衡な分類など、さまざまなベンチマークで大幅に改善されている。
論文 参考訳(メタデータ) (2023-01-26T03:53:25Z) - Neural Networks with Quantization Constraints [111.42313650830248]
量子化学習における制約付き学習手法を提案する。
結果の問題は強い双対であり、勾配推定は不要であることを示す。
提案手法は画像分類タスクにおける競合性能を示す。
論文 参考訳(メタデータ) (2022-10-27T17:12:48Z) - The Equalization Losses: Gradient-Driven Training for Long-tailed Object
Recognition [84.51875325962061]
本稿では,長距離問題に対処するための勾配駆動型学習機構を提案する。
我々は、勾配駆動損失関数の新たなファミリー、すなわち等化損失を導入する。
我々の手法は一貫してベースラインモデルより優れています。
論文 参考訳(メタデータ) (2022-10-11T16:00:36Z) - Pairwise Learning via Stagewise Training in Proximal Setting [0.0]
非平滑凸対損失関数の収束保証と、適応的なサンプルサイズとペアワイズ学習のための重要サンプリング手法を組み合わせる。
それぞれに逆のインスタンスをサンプリングすると勾配の分散が減少し、収束が加速することを示した。
論文 参考訳(メタデータ) (2022-08-08T11:51:01Z) - Real-centric Consistency Learning for Deepfake Detection [8.313889744011933]
両クラスの不変表現を学習することで深度検出問題に取り組む。
本稿では,潜在世代関連特徴を抽出するための,意味論的ペアリング手法を提案する。
特徴レベルでは、表現空間における自然面の中心に基づいて、潜在的な限界特徴をシミュレートする強正のマイニングと合成法を設計する。
論文 参考訳(メタデータ) (2022-05-15T07:01:28Z) - A Framework using Contrastive Learning for Classification with Noisy
Labels [1.2891210250935146]
雑音ラベルの存在下で画像分類を行うために,コントラスト学習を事前学習タスクとして利用するフレームワークを提案する。
擬似ラベル, ガウス混合モデルを用いたサンプル選択, 重み付き教師付きコントラスト学習などの近年の戦略は, 事前学習後の微調整相に組み合わされている。
論文 参考訳(メタデータ) (2021-04-19T18:51:22Z) - CurricularFace: Adaptive Curriculum Learning Loss for Deep Face
Recognition [79.92240030758575]
本稿では,カリキュラム学習の概念を損失関数に組み込んだ適応型カリキュラム学習損失(CurricularFace)を提案する。
我々のCurricularFaceは、異なるトレーニング段階における簡単なサンプルとハードサンプルの相対的重要性を適応的に調整する。
論文 参考訳(メタデータ) (2020-04-01T08:43:10Z) - Improving Face Recognition from Hard Samples via Distribution
Distillation Loss [131.61036519863856]
大きな顔のバリエーションは、顔認識の主要な課題である。
本研究では, 簡単な試料と硬質試料との性能ギャップを狭めるために, 新規な分散蒸留損失を提案する。
我々は、人種、解像度、ポーズに様々なバリエーションがある一般的な大規模顔のベンチマークとベンチマークの両方について広範な実験を行った。
論文 参考訳(メタデータ) (2020-02-10T11:25:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。