論文の概要: UniTSFace: Unified Threshold Integrated Sample-to-Sample Loss for Face
Recognition
- arxiv url: http://arxiv.org/abs/2311.02523v1
- Date: Sat, 4 Nov 2023 23:00:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 17:19:34.940356
- Title: UniTSFace: Unified Threshold Integrated Sample-to-Sample Loss for Face
Recognition
- Title(参考訳): UniTSFace: 顔認識のための統一された閾値統合型サンプル対サンプル損失
- Authors: Qiufu Li, Xi Jia, Jiancan Zhou, Linlin Shen and Jinming Duan
- Abstract要約: サンプル・サンプル・サンプル・ベース・ロス(USS損失)の統合しきい値を提案する。
USS損失は、正の対と負の対を区別するための明確な統一されたしきい値である。
また,サンプル対サンプルベースのソフトマックスとBCE損失を導出し,それらの関係について考察した。
- 参考スコア(独自算出の注目度): 35.66000285310775
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sample-to-class-based face recognition models can not fully explore the
cross-sample relationship among large amounts of facial images, while
sample-to-sample-based models require sophisticated pairing processes for
training. Furthermore, neither method satisfies the requirements of real-world
face verification applications, which expect a unified threshold separating
positive from negative facial pairs. In this paper, we propose a unified
threshold integrated sample-to-sample based loss (USS loss), which features an
explicit unified threshold for distinguishing positive from negative pairs.
Inspired by our USS loss, we also derive the sample-to-sample based softmax and
BCE losses, and discuss their relationship. Extensive evaluation on multiple
benchmark datasets, including MFR, IJB-C, LFW, CFP-FP, AgeDB, and MegaFace,
demonstrates that the proposed USS loss is highly efficient and can work
seamlessly with sample-to-class-based losses. The embedded loss (USS and
sample-to-class Softmax loss) overcomes the pitfalls of previous approaches and
the trained facial model UniTSFace exhibits exceptional performance,
outperforming state-of-the-art methods, such as CosFace, ArcFace, VPL,
AnchorFace, and UNPG. Our code is available.
- Abstract(参考訳): サンプル対クラスベースの顔認識モデルは、大量の顔画像間のクロスサンプル関係を十分に調べることができない。
さらに、どちらの方法も、正と負の対を分離する統一しきい値が期待できる実世界の顔認証アプリケーションの要件を満たすものではない。
本稿では,正の対と負の対を区別するための明確な統一された閾値を特徴とする,試料対サンプル損失(USS損失)の統一しきい値を提案する。
USSの損失にインスパイアされ、サンプル対サンプルベースのソフトマックスとBCEの損失を導き、それらの関係を議論する。
MFR, IJB-C, LFW, CFP-FP, AgeDB, MegaFaceなど,複数のベンチマークデータセットに対する大規模な評価は,提案されたUSS損失が極めて効率的で,サンプル-クラスベースの損失とシームレスに動作することを示した。
組込み損失(USSとSprint-to-class Softmax損失)は、以前のアプローチの落とし穴を克服し、訓練された顔モデルUniTSFaceは、CosFace、ArcFace、VPL、AnchorFace、UNPGといった最先端のメソッドよりも優れたパフォーマンスを示す。
私たちのコードは利用可能です。
関連論文リスト
- Fine Structure-Aware Sampling: A New Sampling Training Scheme for Pixel-Aligned Implicit Models in Single-View Human Reconstruction [98.30014795224432]
本研究では,単一視点の人物再構成のための暗黙的画素アライメントモデルをトレーニングするために,FSS(Final Structured-Aware Sampling)を導入する。
FSSは表面の厚さと複雑さに積極的に適応する。
また、画素アライメント型暗黙的モデルのためのメッシュ厚み損失信号を提案する。
論文 参考訳(メタデータ) (2024-02-29T14:26:46Z) - Deep Boosting Multi-Modal Ensemble Face Recognition with Sample-Level
Weighting [11.39204323420108]
深層畳み込みニューラルネットワークは顔認識において顕著な成功を収めた。
現在のトレーニングベンチマークは、不均衡な品質分布を示している。
これは、訓練中に不足しているため、ハードサンプルの一般化に問題を引き起こす。
有名なAdaBoostにインスパイアされた本研究では、FR損失に異なるサンプルの重要性を組み込むためのサンプルレベルの重み付け手法を提案する。
論文 参考訳(メタデータ) (2023-08-18T01:44:54Z) - Blind Face Restoration: Benchmark Datasets and a Baseline Model [63.053331687284064]
Blind Face Restoration (BFR) は、対応する低品質 (LQ) 入力から高品質 (HQ) の顔画像を構築することを目的としている。
EDFace-Celeb-1M (BFR128) と EDFace-Celeb-150K (BFR512) と呼ばれる2つのブラインドフェイス復元ベンチマークデータセットを最初に合成する。
最先端の手法は、ブラー、ノイズ、低解像度、JPEG圧縮アーティファクト、それらの組み合わせ(完全な劣化)の5つの設定でベンチマークされる。
論文 参考訳(メタデータ) (2022-06-08T06:34:24Z) - SFace: Sigmoid-Constrained Hypersphere Loss for Robust Face Recognition [74.13631562652836]
SFace(Sigmoid-Constrained hypersphere loss)と呼ばれる新しい損失関数を提案する。
SFaceは2つのシグモイド勾配再スケール関数によってそれぞれ制御される超球面多様体にクラス内およびクラス間制約を課す。
クラス内距離を減らし、ラベルノイズへの過度な適合を防ぎ、より堅牢なディープ顔認識モデルに寄与する。
論文 参考訳(メタデータ) (2022-05-24T11:54:15Z) - AdaFace: Quality Adaptive Margin for Face Recognition [56.99208144386127]
本稿では、損失関数、すなわち画像品質における適応性の別の側面を紹介する。
そこで本稿では,画像品質に基づいて異なる難易度を示す新たな損失関数を提案する。
提案手法は,4つのデータセット上でのSoTA(State-of-the-art)による顔認識性能を向上させる。
論文 参考訳(メタデータ) (2022-04-03T01:23:41Z) - MixFace: Improving Face Verification Focusing on Fine-grained Conditions [2.078506623954885]
分類と計量損失を組み合わせた新しい損失関数MixFaceを提案する。
MixFaceの有効性と堅牢性は、様々なベンチマークデータセットで実験的に実証されている。
論文 参考訳(メタデータ) (2021-11-02T16:34:54Z) - Unsupervised Learning Facial Parameter Regressor for Action Unit
Intensity Estimation via Differentiable Renderer [51.926868759681014]
骨駆動型顔モデル(BDFM)に基づいて,異なる視点で顔パラメータを予測する枠組みを提案する。
提案するフレームワークは,特徴抽出器,ジェネレータ,顔パラメータ回帰器から構成される。
論文 参考訳(メタデータ) (2020-08-20T09:49:13Z) - BioMetricNet: deep unconstrained face verification through learning of
metrics regularized onto Gaussian distributions [25.00475462213752]
深層非拘束顔認証のための新しいフレームワークであるBioMetricNetを提案する。
提案手法では、顔の特徴について具体的な指標を課していない。
マッチングと非マッチングのペアを、明確に分離された、よく定義されたターゲット分布にマッピングする潜在表現を学習することで、決定空間を形成する。
論文 参考訳(メタデータ) (2020-08-13T17:22:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。