論文の概要: ElasticFace: Elastic Margin Loss for Deep Face Recognition
- arxiv url: http://arxiv.org/abs/2109.09416v1
- Date: Mon, 20 Sep 2021 10:31:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-21 16:26:10.065639
- Title: ElasticFace: Elastic Margin Loss for Deep Face Recognition
- Title(参考訳): ElasticFace: ディープ顔認識のためのElastic Margin Loss
- Authors: Fadi Boutros, Naser Damer, Florian Kirchbuchner, Arjan Kuijper
- Abstract要約: 差別的な顔の特徴を学習することは、高いパフォーマンスの顔認識モデルを構築する上で大きな役割を果たす。
分類損失関数,ソフトマックス損失に対する一定のペナルティマージンを組み込むための最近の最先端の顔認識ソリューションを提案する。
本稿では,クラス分離性向上のための弾力的マージン損失( Elastic margin loss, ElasticFace)を提案する。
- 参考スコア(独自算出の注目度): 6.865656740940772
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning discriminative face features plays a major role in building
high-performing face recognition models. The recent state-of-the-art face
recognition solutions proposed to incorporate a fixed penalty margin on
commonly used classification loss function, softmax loss, in the normalized
hypersphere to increase the discriminative power of face recognition models, by
minimizing the intra-class variation and maximizing the inter-class variation.
Marginal softmax losses, such as ArcFace and CosFace, assume that the geodesic
distance between and within the different identities can be equally learned
using a fixed margin. However, such a learning objective is not realistic for
real data with inconsistent inter-and intra-class variation, which might limit
the discriminative and generalizability of the face recognition model. In this
paper, we relax the fixed margin constrain by proposing elastic margin loss
(ElasticFace) that allows flexibility in the push for class separability. The
main idea is to utilize random margin values drawn from a normal distribution
in each training iteration. This aims at giving the margin chances to extract
and retract to allow space for flexible class separability learning. We
demonstrate the superiority of our elastic margin loss over ArcFace and CosFace
losses, using the same geometric transformation, on a large set of mainstream
benchmarks. From a wider perspective, our ElasticFace has advanced the
state-of-the-art face recognition performance on six out of nine mainstream
benchmarks.
- Abstract(参考訳): 識別的特徴の学習は、ハイパフォーマンスな顔認識モデルを構築する上で重要な役割を果たす。
最近の最先端の顔認識ソリューションでは、クラス内変動を最小化し、クラス間変動を最大化することにより、正規化した超球において、一般的な分類損失関数であるソフトマックス損失に一定のペナルティマージンを組み込むことを提案している。
ArcFace や CosFace のようなMarginal Softmax の損失は、異なるアイデンティティ内の測地線距離が、固定されたマージンで等しく学習できると仮定する。
しかし、このような学習目的は、非一貫性なクラス間およびクラス内変動を持つ実データに対して現実的ではなく、顔認識モデルの識別性と一般化性を制限する可能性がある。
本稿では,クラス分離性の向上に資する弾性マージン損失( Elastic margin loss, ElasticFace)を提案することにより,固定マージン制約を緩和する。
主なアイデアは、トレーニングイテレーション毎に正規分布から引き出されたランダムマージン値を利用することである。
これは、フレキシブルなクラス分離学習のためのスペースを可能にするために、抽出と撤回のマージンを与えることを目的としている。
私たちは、多くのメインストリームベンチマークで、同じ幾何学的変換を用いて、arcfaceとcosfaceの損失よりも弾力的なマージン損失の方が優れていることを示しています。
幅広い視点から見ると、elasticfaceは9つのメインストリームベンチマークのうち6つで最先端の顔認識性能を向上しました。
関連論文リスト
- X2-Softmax: Margin Adaptive Loss Function for Face Recognition [6.497884034818003]
我々は,X2-Softmaxという新しい角マージン損失を提案する。
X2-Softmax損失は適応的な角マージンを持ち、異なるクラス間の角度が大きくなるにつれて増加するマージンを提供する。
我々は、MS1Mv3データセット上でX2-Softmax損失でニューラルネットワークをトレーニングした。
論文 参考訳(メタデータ) (2023-12-08T10:27:47Z) - InterFace:Adjustable Angular Margin Inter-class Loss for Deep Face
Recognition [7.158500469489626]
モデルの識別能力を向上させるために,新しい損失関数InterFaceを提案する。
私たちのInterFaceは、13の主流ベンチマークのうち5つで最先端の顔認識性能を向上しました。
論文 参考訳(メタデータ) (2022-10-05T04:38:29Z) - SubFace: Learning with Softmax Approximation for Face Recognition [3.262192371833866]
SubFaceは、サブスペース機能を利用して顔認識の性能を向上するソフトマックス近似法である。
本手法がバニラCNNベースラインの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2022-08-24T12:31:08Z) - Learning Towards the Largest Margins [83.7763875464011]
損失関数は、クラスとサンプルの両方の最大のマージンを促進するべきである。
この原則化されたフレームワークは、既存のマージンベースの損失を理解し、解釈するための新しい視点を提供するだけでなく、新しいツールの設計を導くことができます。
論文 参考訳(メタデータ) (2022-06-23T10:03:03Z) - Meta Balanced Network for Fair Face Recognition [51.813457201437195]
我々は、データとアルゴリズムの両方の側面からバイアスを体系的に科学的に研究する。
本稿では,メタバランスネットワーク(MBN)と呼ばれるメタ学習アルゴリズムを提案する。
大規模な実験により、MBNは偏見を緩和し、顔認識において異なる肌のトーンを持つ人々に対してよりバランスの取れたパフォーマンスを学ぶことができた。
論文 参考訳(メタデータ) (2022-05-13T10:25:44Z) - AdaFace: Quality Adaptive Margin for Face Recognition [56.99208144386127]
本稿では、損失関数、すなわち画像品質における適応性の別の側面を紹介する。
そこで本稿では,画像品質に基づいて異なる難易度を示す新たな損失関数を提案する。
提案手法は,4つのデータセット上でのSoTA(State-of-the-art)による顔認識性能を向上させる。
論文 参考訳(メタデータ) (2022-04-03T01:23:41Z) - KappaFace: Adaptive Additive Angular Margin Loss for Deep Face
Recognition [22.553018305072925]
我々は,クラス難易度と不均衡度に基づいて相対的重要性を変調する,KappaFaceと呼ばれる新しい適応戦略を導入する。
一般的な顔のベンチマーク実験により,提案手法は最先端技術よりも優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2022-01-19T03:05:24Z) - Federated Learning for Face Recognition with Gradient Correction [52.896286647898386]
本稿では,顔認識のためのフェデレーション学習に取り組むためのフレームワークであるFedGCを紹介する。
我々は,FedGCが標準ソフトマックスと同様の損失関数を構成することを示す。
論文 参考訳(メタデータ) (2021-12-14T09:19:29Z) - SphereFace Revived: Unifying Hyperspherical Face Recognition [57.07058009281208]
我々は,超球面顔認識において,大きな角マージンを理解するための統一的な枠組みを導入する。
このフレームワークでは,SphereFace-Rという,トレーニングの安定性が大幅に向上した改良版を提案する。
我々は、SphereFace-Rが最先端の手法よりも一貫して優れているか、競合していることを示す。
論文 参考訳(メタデータ) (2021-09-12T17:07:54Z) - SphereFace2: Binary Classification is All You Need for Deep Face
Recognition [57.07058009281208]
最先端のディープフェイス認識手法は、ソフトマックスベースのマルチクラス分類フレームワークで主に訓練されている。
本稿では,SphereFace2と呼ばれる新しいバイナリ分類学習フレームワークを提案する。
SphereFace2は、最先端のディープ・フェイス認識手法よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2021-08-03T13:58:45Z) - More Information Supervised Probabilistic Deep Face Embedding Learning [10.52667214402514]
確率ビューにおいて、マージンに基づくソフトマックスの損失を分析する。
この発見を裏付けるために、Linear-Auto-TS-Encoder (LATSE) と呼ばれる自動エンコーダアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-06-08T12:33:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。