論文の概要: NPT-Loss: A Metric Loss with Implicit Mining for Face Recognition
- arxiv url: http://arxiv.org/abs/2103.03503v1
- Date: Fri, 5 Mar 2021 07:26:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-08 14:59:44.905074
- Title: NPT-Loss: A Metric Loss with Implicit Mining for Face Recognition
- Title(参考訳): NPT-Loss:顔認識のための暗黙のマイニングによるメトリクス損失
- Authors: Syed Safwan Khalid, Muhammad Awais, Chi-Ho Chan, Zhenhua Feng, Ammarah
Farooq, Ali Akbari and Josef Kittler
- Abstract要約: 深層畳み込みニューラルネットワーク(dcnns)を用いた顔認識は近年目覚ましい成功を収めている。
DCNNベースのFRの重要な要素の1つは、さまざまなアイデンティティ間の識別を保証する損失関数の適切な設計です。
本稿では,プロキシによる三重項損失に相当する新しい損失と,ハード負のマイニングの暗黙のメカニズムを提案する。
- 参考スコア(独自算出の注目度): 28.773161837693344
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Face recognition (FR) using deep convolutional neural networks (DCNNs) has
seen remarkable success in recent years. One key ingredient of DCNN-based FR is
the appropriate design of a loss function that ensures discrimination between
various identities. The state-of-the-art (SOTA) solutions utilise normalised
Softmax loss with additive and/or multiplicative margins. Despite being
popular, these Softmax+margin based losses are not theoretically motivated and
the effectiveness of a margin is justified only intuitively. In this work, we
utilise an alternative framework that offers a more direct mechanism of
achieving discrimination among the features of various identities. We propose a
novel loss that is equivalent to a triplet loss with proxies and an implicit
mechanism of hard-negative mining. We give theoretical justification that
minimising the proposed loss ensures a minimum separability between all
identities. The proposed loss is simple to implement and does not require heavy
hyper-parameter tuning as in the SOTA solutions. We give empirical evidence
that despite its simplicity, the proposed loss consistently achieves SOTA
performance in various benchmarks for both high-resolution and low-resolution
FR tasks.
- Abstract(参考訳): ディープ畳み込みニューラルネットワーク(DCNN)を用いた顔認識(FR)は近年顕著な成功を収めている。
DCNNベースのFRの重要な要素の1つは、さまざまなアイデンティティ間の識別を保証する損失関数の適切な設計です。
最先端の(SOTA)ソリューションは、添加および/または乗算マージンで正規化されたSoftmax損失を利用します。
人気があるにもかかわらず、これらのSoftmax+marginベースの損失は理論的には動機づけられず、マージンの有効性は直感的にのみ正当化される。
本研究では,様々なアイデンティティの特徴を識別するための,より直接的なメカニズムを提供する代替フレームワークを利用する。
本稿では,プロキシによる三重項損失に相当する新しい損失と,ハード負のマイニングの暗黙のメカニズムを提案する。
提案した損失を最小化する理論的正当性は、すべてのアイデンティティ間の最小の分離性を保証する。
提案した損失は実装が簡単で、SOTAソリューションのように重いハイパーパラメータチューニングを必要としない。
我々は,その単純さにもかかわらず,提案した損失は,高分解能および低分解能のFRタスクに対して,様々なベンチマークにおいて一貫してSOTA性能を達成するという実証的証拠を与える。
関連論文リスト
- EnsLoss: Stochastic Calibrated Loss Ensembles for Preventing Overfitting in Classification [1.3778851745408134]
経験的リスク最小化フレームワーク内で損失関数を結合する新しいアンサンブル手法,すなわちEnsLossを提案する。
まず、損失のCC条件を損失導関数に変換し、明示的な損失関数の必要性を回避した。
理論的には、我々のアプローチの統計的一貫性を確立し、その利点に関する洞察を提供する。
論文 参考訳(メタデータ) (2024-09-02T02:40:42Z) - A Universal Class of Sharpness-Aware Minimization Algorithms [57.29207151446387]
我々は、新しいシャープネス尺度を導入し、新しいシャープネス対応目標関数を導出する。
これらの測度がテキスト的に表現可能であることを証明し、トレーニング損失ヘッセン行列の任意の関数を適切なハイパーおよび行列式で表すことを可能にする。
論文 参考訳(メタデータ) (2024-06-06T01:52:09Z) - Expressive Losses for Verified Robustness via Convex Combinations [67.54357965665676]
本研究では, 過近似係数と異なる表現的損失に対する性能分布の関係について検討した。
表現性が不可欠である一方で、最悪の場合の損失のより良い近似は、必ずしも優れた堅牢性-正確性トレードオフに結びついていないことを示す。
論文 参考訳(メタデータ) (2023-05-23T12:20:29Z) - Stationary Point Losses for Robust Model [3.5651179772067465]
クロスエントロピー(CE)損失は、ニューラルネットワークの堅牢な境界を保証するものではない。
適切な分類側には少なくとも1つの定常点を有する定常点(SP)損失を提案する。
本研究では,SP損失を施すことにより,様々な敵攻撃によりロバスト性が向上することが実証された。
論文 参考訳(メタデータ) (2023-02-19T13:39:19Z) - Anti-Exploration by Random Network Distillation [63.04360288089277]
ランダムネットワーク蒸留 (RND) の条件付けは, 不確実性推定器として用いるのに十分な識別性がないことを示す。
この制限は、FiLM(Feature-wise Linear Modulation)に基づく条件付けによって回避できることを示す。
D4RLベンチマークで評価したところ、アンサンブルベースの手法に匹敵する性能を達成でき、アンサンブルのない手法よりも広いマージンで性能を向上できることがわかった。
論文 参考訳(メタデータ) (2023-01-31T13:18:33Z) - Joint Discriminative and Metric Embedding Learning for Person
Re-Identification [8.137833258504381]
個人の再識別は,非制限的ニュアンス要因によって引き起こされるクラス内ばらつきが高いため,困難な課題である。
最近のアプローチでは、強力なアーキテクチャはニュアンス要因に不変な特徴表現を学習する能力を持っていると仮定されている。
論文 参考訳(メタデータ) (2022-12-28T22:08:42Z) - Learning Towards the Largest Margins [83.7763875464011]
損失関数は、クラスとサンプルの両方の最大のマージンを促進するべきである。
この原則化されたフレームワークは、既存のマージンベースの損失を理解し、解釈するための新しい視点を提供するだけでなく、新しいツールの設計を導くことができます。
論文 参考訳(メタデータ) (2022-06-23T10:03:03Z) - Label Distributionally Robust Losses for Multi-class Classification:
Consistency, Robustness and Adaptivity [55.29408396918968]
多クラス分類のためのラベル分布ロバスト(LDR)損失という損失関数群について検討した。
我々の貢献は、多クラス分類のためのLDR損失のトップ$kの一貫性を確立することによって、一貫性と堅牢性の両方を含んでいる。
本稿では,各インスタンスのクラスラベルの雑音度に個別化温度パラメータを自動的に適応させる適応型LDR損失を提案する。
論文 参考訳(メタデータ) (2021-12-30T00:27:30Z) - Adaptive Weighted Discriminator for Training Generative Adversarial
Networks [11.68198403603969]
本稿では,実物と偽物の重み付けを取り入れた新たな識別器損失関数群を提案する。
本手法は実部と偽部の合計である損失を持つ任意の判別器モデルに適用できる可能性がある。
論文 参考訳(メタデータ) (2020-12-05T23:55:42Z) - Loss Function Search for Face Recognition [75.79325080027908]
最適な候補を自動的に獲得する報酬誘導探索法を開発した。
種々の顔認証ベンチマークの実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2020-07-10T03:40:10Z) - A Feature-map Discriminant Perspective for Pruning Deep Neural Networks [24.062226363823257]
本稿では,特徴マップの識別性を高精度かつ効率的に定量化するための新しい数学的定式化を提案する。
本研究では、DIの理論的性質、特に非減少特性を分析し、DIを有効な選択基準とする。
そこで本稿では,DIに基づくグリーディープルーニングアルゴリズムと構造蒸留技術を用いて,プルーニング構造を自動的に決定する手法を提案する。
論文 参考訳(メタデータ) (2020-05-28T06:25:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。