論文の概要: WebFace260M: A Benchmark Unveiling the Power of Million-Scale Deep Face
Recognition
- arxiv url: http://arxiv.org/abs/2103.04098v1
- Date: Sat, 6 Mar 2021 11:12:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-10 02:41:02.849982
- Title: WebFace260M: A Benchmark Unveiling the Power of Million-Scale Deep Face
Recognition
- Title(参考訳): WebFace260M:百万規模のディープフェイス認識のパワーを示すベンチマーク
- Authors: Zheng Zhu, Guan Huang, Jiankang Deng, Yun Ye, Junjie Huang, Xinze
Chen, Jiagang Zhu, Tian Yang, Jiwen Lu, Dalong Du, Jie Zhou
- Abstract要約: ノイズの多い4M顔/260M顔(WebFace260M)と2M顔/42M顔(WebFace42M)を含む新しい百万スケール顔ベンチマークを提供します。
我々は、挑戦的IJB-C集合の相対40%の故障率を減少させ、NIST-FRVTの430項目のうち3位にランク付けする。
10%のデータ(WebFace4M)でさえ、公開トレーニングセットよりも優れたパフォーマンスを示している。
- 参考スコア(独自算出の注目度): 79.65728162193584
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we contribute a new million-scale face benchmark containing
noisy 4M identities/260M faces (WebFace260M) and cleaned 2M identities/42M
faces (WebFace42M) training data, as well as an elaborately designed
time-constrained evaluation protocol. Firstly, we collect 4M name list and
download 260M faces from the Internet. Then, a Cleaning Automatically utilizing
Self-Training (CAST) pipeline is devised to purify the tremendous WebFace260M,
which is efficient and scalable. To the best of our knowledge, the cleaned
WebFace42M is the largest public face recognition training set and we expect to
close the data gap between academia and industry. Referring to practical
scenarios, Face Recognition Under Inference Time conStraint (FRUITS) protocol
and a test set are constructed to comprehensively evaluate face matchers.
Equipped with this benchmark, we delve into million-scale face recognition
problems. A distributed framework is developed to train face recognition models
efficiently without tampering with the performance. Empowered by WebFace42M, we
reduce relative 40% failure rate on the challenging IJB-C set, and ranks the
3rd among 430 entries on NIST-FRVT. Even 10% data (WebFace4M) shows superior
performance compared with public training set. Furthermore, comprehensive
baselines are established on our rich-attribute test set under
FRUITS-100ms/500ms/1000ms protocol, including MobileNet, EfficientNet,
AttentionNet, ResNet, SENet, ResNeXt and RegNet families. Benchmark website is
https://www.face-benchmark.org.
- Abstract(参考訳): 本稿では,ノイズの多い4Mの顔260M (WebFace260M) と2Mの顔242M (WebFace42M) のトレーニングデータを含む新しい100万規模の顔ベンチマークと,精巧に設計された時間制約評価プロトコルを提案する。
まず、4Mの名前リストを収集し、インターネットから260Mの顔をダウンロードする。
次に、CAST(Self-Training)パイプラインを自動利用して、効率的でスケーラブルな巨大なWebFace260Mを浄化する。
私たちの知る限りでは、クリーンなWebFace42Mは最大の公衆顔認識トレーニングセットであり、アカデミアと業界のデータギャップを埋めることを期待しています。
実用シナリオを参照して、推論時間制約(fruits)プロトコルとテストセットによる顔認識を総合的に評価するために構築する。
このベンチマークにより、数百万規模の顔認識の問題を掘り下げます。
性能を損なわずに効率的に顔認識モデルを訓練する分散フレームワークを開発。
WebFace42Mにより、挑戦的なIJB-Cセットの相対40%の故障率を削減し、NIST-FRVTの430エントリの中で3位にランク付けします。
10%のデータ(WebFace4M)でさえ、公開トレーニングセットよりも優れたパフォーマンスを示している。
さらに、MobileNet、EfficientNet、AttentionNet、ResNet、SENet、ResNeXt、RegNetファミリーを含むFRUITS-100ms/500ms/1000msプロトコルに基づく豊富な属性テストに基づいて包括的なベースラインが確立されています。
ベンチマークウェブサイトはhttps://www.face-benchmark.org。
関連論文リスト
- Toward High Quality Facial Representation Learning [58.873356953627614]
我々はMask Contrastive Face (MCF)と呼ばれる自己教師型事前学習フレームワークを提案する。
トレーニング済みの視覚バックボーンの特徴マップを監視項目として使用し、マスク画像モデリングに部分的にトレーニング済みのデコーダを使用する。
このモデルはAFLW-19顔アライメントの0.932 NME_diag$とLaPa顔解析の93.96 F1スコアを達成する。
論文 参考訳(メタデータ) (2023-09-07T09:11:49Z) - SqueezerFaceNet: Reducing a Small Face Recognition CNN Even More Via
Filter Pruning [55.84746218227712]
我々は,100万パラメータ未満の軽量顔認識ネットワークであるSqueezerFaceNetを開発した。
性能を損なうことなく、さらに(最大40%)削減できることを示す。
論文 参考訳(メタデータ) (2023-07-20T08:38:50Z) - WebFace260M: A Benchmark for Million-Scale Deep Face Recognition [89.39080252029386]
我々は、未修正4MのID/260Mの顔(WebFace260M)とクリーン2MのID/42Mの顔(WebFace42M)を含む新しい100万スケールの認識ベンチマークに貢献する。
分散フレームワークは、性能を損なうことなく、顔認識モデルを効率的に訓練するために開発された。
提案したベンチマークは、標準、マスク付き、偏見のない顔認識シナリオにおいて大きな可能性を示している。
論文 参考訳(メタデータ) (2022-04-21T14:56:53Z) - Face-NMS: A Core-set Selection Approach for Efficient Face Recognition [14.863570260332747]
野生での顔認識は目覚ましい成功を収めた。
1つの重要なエンジンは、トレーニングデータのサイズが大きくなることだ。
膨大な数の顔がトレーニング時間、コンピューティングリソース、メモリコストの制約を増大させます。
論文 参考訳(メタデータ) (2021-09-10T07:07:04Z) - Masked Face Recognition Challenge: The InsightFace Track Report [79.77020394722788]
新型コロナウイルス(COVID-19)が流行する中、ほとんどの人が顔認証に挑戦するマスクを着用している。
本ワークショップでは,顔マスクの存在下でのベンチマークによる深層顔認識手法に着目した。
論文 参考訳(メタデータ) (2021-08-18T15:14:44Z) - Masked Face Recognition Challenge: The WebFace260M Track Report [81.57455766506197]
ICCV 2021におけるバイオメトリクスとマスク付き顔認識チャレンジ
WebFace260M Trackは、実用的なMFRのフロンティアを推進することを目的としている。
WebFace260M Trackの第1フェーズでは、69のチーム(トータル833ソリューション)がこの課題に参加している。
この挑戦には2021年10月1日までの第2フェーズと、進行中のリーダーボードがある。
論文 参考訳(メタデータ) (2021-08-16T15:51:51Z) - MixFaceNets: Extremely Efficient Face Recognition Networks [6.704751710867745]
顔認証のための極めて効率的な高スループットモデルであるMixFaceNetsを提案する。
The Label Face in the Wild (LFW), Age-DB, MegaFace, IARPA Janus Benchmarks IJB-B と IJB-C を用いた実験により,MixFaceNet の有効性が示された。
500Mと1GのFLOPの計算複雑性により、MixFaceNetsは上位モデルに匹敵する結果を得た。
論文 参考訳(メタデータ) (2021-07-27T19:10:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。