論文の概要: WebFace260M: A Benchmark for Million-Scale Deep Face Recognition
- arxiv url: http://arxiv.org/abs/2204.10149v1
- Date: Thu, 21 Apr 2022 14:56:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-04-22 17:31:49.593235
- Title: WebFace260M: A Benchmark for Million-Scale Deep Face Recognition
- Title(参考訳): WebFace260M: 百万規模のディープ顔認識のためのベンチマーク
- Authors: Zheng Zhu, Guan Huang, Jiankang Deng, Yun Ye, Junjie Huang, Xinze
Chen, Jiagang Zhu, Tian Yang, Dalong Du, Jiwen Lu, Jie Zhou
- Abstract要約: 我々は、未修正4MのID/260Mの顔(WebFace260M)とクリーン2MのID/42Mの顔(WebFace42M)を含む新しい100万スケールの認識ベンチマークに貢献する。
分散フレームワークは、性能を損なうことなく、顔認識モデルを効率的に訓練するために開発された。
提案したベンチマークは、標準、マスク付き、偏見のない顔認識シナリオにおいて大きな可能性を示している。
- 参考スコア(独自算出の注目度): 89.39080252029386
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Face benchmarks empower the research community to train and evaluate
high-performance face recognition systems. In this paper, we contribute a new
million-scale recognition benchmark, containing uncurated 4M identities/260M
faces (WebFace260M) and cleaned 2M identities/42M faces (WebFace42M) training
data, as well as an elaborately designed time-constrained evaluation protocol.
Firstly, we collect 4M name lists and download 260M faces from the Internet.
Then, a Cleaning Automatically utilizing Self-Training (CAST) pipeline is
devised to purify the tremendous WebFace260M, which is efficient and scalable.
To the best of our knowledge, the cleaned WebFace42M is the largest public face
recognition training set and we expect to close the data gap between academia
and industry. Referring to practical deployments, Face Recognition Under
Inference Time conStraint (FRUITS) protocol and a new test set with rich
attributes are constructed. Besides, we gather a large-scale masked face
sub-set for biometrics assessment under COVID-19. For a comprehensive
evaluation of face matchers, three recognition tasks are performed under
standard, masked and unbiased settings, respectively. Equipped with this
benchmark, we delve into million-scale face recognition problems. A distributed
framework is developed to train face recognition models efficiently without
tampering with the performance. Enabled by WebFace42M, we reduce 40% failure
rate on the challenging IJB-C set and rank 3rd among 430 entries on NIST-FRVT.
Even 10% data (WebFace4M) shows superior performance compared with the public
training sets. Furthermore, comprehensive baselines are established under the
FRUITS-100/500/1000 milliseconds protocols. The proposed benchmark shows
enormous potential on standard, masked and unbiased face recognition scenarios.
Our WebFace260M website is https://www.face-benchmark.org.
- Abstract(参考訳): 顔のベンチマークにより、研究コミュニティは高性能顔認証システムの訓練と評価を行うことができる。
本稿では,未作成の 4m identities/260m faces (webface260m) と 2m identities/42m faces (webface42m) のトレーニングデータを含む,新しい百万単位の認識ベンチマークを提案する。
まず、400万の名前リストを集め、2億6000万の顔をインターネットからダウンロードします。
次に,CAST(Self-Training)パイプラインを利用したクリーニングを,効率的かつスケーラブルなWebFace260Mを浄化するために考案した。
私たちの知る限り、クリーン化されたWebFace42Mは、最大の顔認識トレーニングセットであり、学術と産業の間のデータギャップを埋めることを期待しています。
実際のデプロイメントを参照して、FRUITS(Face Recognition Under Inference Time Constraint)プロトコルと、豊富な属性を持つ新しいテストセットを構築する。
また、新型コロナウイルスによるバイオメトリックス評価のための大規模なマスク付き顔サブセットも収集した。
顔マッチングの総合評価では,3つの認識タスクをそれぞれ標準,マスク,アンバイアス設定で行う。
このベンチマークと合わせて、百万規模の顔認識問題を掘り下げる。
分散フレームワークを開発し、パフォーマンスを損なうことなく、顔認識モデルを効率的にトレーニングする。
WebFace42Mにより実現され、NIST-FRVTの430項目のうち、挑戦的なIJB-Cセットの障害率を40%削減し、3位にランク付けする。
10%のデータ(WebFace4M)でさえ、公開トレーニングセットよりも優れたパフォーマンスを示している。
さらに、包括的なベースラインはFRUITS-100/500/1000ミリ秒プロトコルで確立されている。
提案したベンチマークは、標準、マスク付き、偏見のない顔認識シナリオにおいて大きな可能性を示している。
webface260m webサイトはhttps://www.face-benchmark.orgです。
関連論文リスト
- How to Boost Face Recognition with StyleGAN? [13.067766076889995]
最先端の顔認識システムは大量のラベル付きトレーニングデータを必要とする。
業界における自己監督的革命は、関連する技術が顔認識に適応する研究を動機付けている。
StyleGANのための微調整pSpエンコーダに基づく簡単なアプローチにより、最先端の顔認識を改善することができることを示す。
論文 参考訳(メタデータ) (2022-10-18T18:41:56Z) - Blind Face Restoration: Benchmark Datasets and a Baseline Model [63.053331687284064]
Blind Face Restoration (BFR) は、対応する低品質 (LQ) 入力から高品質 (HQ) の顔画像を構築することを目的としている。
EDFace-Celeb-1M (BFR128) と EDFace-Celeb-150K (BFR512) と呼ばれる2つのブラインドフェイス復元ベンチマークデータセットを最初に合成する。
最先端の手法は、ブラー、ノイズ、低解像度、JPEG圧縮アーティファクト、それらの組み合わせ(完全な劣化)の5つの設定でベンチマークされる。
論文 参考訳(メタデータ) (2022-06-08T06:34:24Z) - FaceMAE: Privacy-Preserving Face Recognition via Masked Autoencoders [81.21440457805932]
顔のプライバシと認識性能を同時に考慮する新しいフレームワークFaceMAEを提案する。
ランダムにマスクされた顔画像は、FaceMAEの再構築モジュールのトレーニングに使用される。
また、いくつかの公開顔データセット上で十分なプライバシー保護顔認証を行う。
論文 参考訳(メタデータ) (2022-05-23T07:19:42Z) - Face-NMS: A Core-set Selection Approach for Efficient Face Recognition [14.863570260332747]
野生での顔認識は目覚ましい成功を収めた。
1つの重要なエンジンは、トレーニングデータのサイズが大きくなることだ。
膨大な数の顔がトレーニング時間、コンピューティングリソース、メモリコストの制約を増大させます。
論文 参考訳(メタデータ) (2021-09-10T07:07:04Z) - Masked Face Recognition Challenge: The InsightFace Track Report [79.77020394722788]
新型コロナウイルス(COVID-19)が流行する中、ほとんどの人が顔認証に挑戦するマスクを着用している。
本ワークショップでは,顔マスクの存在下でのベンチマークによる深層顔認識手法に着目した。
論文 参考訳(メタデータ) (2021-08-18T15:14:44Z) - Masked Face Recognition Challenge: The WebFace260M Track Report [81.57455766506197]
ICCV 2021におけるバイオメトリクスとマスク付き顔認識チャレンジ
WebFace260M Trackは、実用的なMFRのフロンティアを推進することを目的としている。
WebFace260M Trackの第1フェーズでは、69のチーム(トータル833ソリューション)がこの課題に参加している。
この挑戦には2021年10月1日までの第2フェーズと、進行中のリーダーボードがある。
論文 参考訳(メタデータ) (2021-08-16T15:51:51Z) - WebFace260M: A Benchmark Unveiling the Power of Million-Scale Deep Face
Recognition [79.65728162193584]
ノイズの多い4M顔/260M顔(WebFace260M)と2M顔/42M顔(WebFace42M)を含む新しい百万スケール顔ベンチマークを提供します。
我々は、挑戦的IJB-C集合の相対40%の故障率を減少させ、NIST-FRVTの430項目のうち3位にランク付けする。
10%のデータ(WebFace4M)でさえ、公開トレーニングセットよりも優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2021-03-06T11:12:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。