論文の概要: Face-NMS: A Core-set Selection Approach for Efficient Face Recognition
- arxiv url: http://arxiv.org/abs/2109.04698v1
- Date: Fri, 10 Sep 2021 07:07:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-13 13:28:41.398081
- Title: Face-NMS: A Core-set Selection Approach for Efficient Face Recognition
- Title(参考訳): Face-NMS:効率的な顔認識のためのコアセット選択手法
- Authors: Yunze Chen, Junjie Huang, Jiagang Zhu, Zheng Zhu, Tian Yang, Guan
Huang, and Dalong Du
- Abstract要約: 野生での顔認識は目覚ましい成功を収めた。
1つの重要なエンジンは、トレーニングデータのサイズが大きくなることだ。
膨大な数の顔がトレーニング時間、コンピューティングリソース、メモリコストの制約を増大させます。
- 参考スコア(独自算出の注目度): 14.863570260332747
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, face recognition in the wild has achieved remarkable success and
one key engine is the increasing size of training data. For example, the
largest face dataset, WebFace42M contains about 2 million identities and 42
million faces. However, a massive number of faces raise the constraints in
training time, computing resources, and memory cost. The current research on
this problem mainly focuses on designing an efficient Fully-connected layer
(FC) to reduce GPU memory consumption caused by a large number of identities.
In this work, we relax these constraints by resolving the redundancy problem of
the up-to-date face datasets caused by the greedily collecting operation (i.e.
the core-set selection perspective). As the first attempt in this perspective
on the face recognition problem, we find that existing methods are limited in
both performance and efficiency. For superior cost-efficiency, we contribute a
novel filtering strategy dubbed Face-NMS. Face-NMS works on feature space and
simultaneously considers the local and global sparsity in generating core sets.
In practice, Face-NMS is analogous to Non-Maximum Suppression (NMS) in the
object detection community. It ranks the faces by their potential contribution
to the overall sparsity and filters out the superfluous face in the pairs with
high similarity for local sparsity. With respect to the efficiency aspect,
Face-NMS accelerates the whole pipeline by applying a smaller but sufficient
proxy dataset in training the proxy model. As a result, with Face-NMS, we
successfully scale down the WebFace42M dataset to 60% while retaining its
performance on the main benchmarks, offering a 40% resource-saving and 1.64
times acceleration. The code is publicly available for reference at
https://github.com/HuangJunJie2017/Face-NMS.
- Abstract(参考訳): 近年、顔認識は目覚ましい成功を収めており、トレーニングデータのサイズが大きくなることが重要なエンジンとなっている。
例えば、最大の顔データセットであるWebFace42Mには、約200万のIDと4400万の顔が含まれている。
しかし、膨大な数の顔がトレーニング時間、コンピューティングリソース、メモリコストの制約を増大させます。
この問題に対する現在の研究は主に、多数のIDに起因するGPUメモリ消費を減らすために、効率的なフルー接続層(FC)を設計することに焦点を当てている。
本研究では,厳格な収集操作(core-set selection perspective)に起因する最新の顔データセットの冗長性問題を解決することで,これらの制約を緩和する。
顔認識問題に対するこの視点の最初の試みとして,既存の手法は性能と効率の両方に制限があることを見出した。
コスト効率の向上のために,Face-NMSと呼ばれる新しいフィルタリング手法を提案する。
Face-NMSは特徴空間で動作し、コアセットを生成する際の局所的および大域的空間性を同時に検討する。
実際には、Face-NMSはオブジェクト検出コミュニティにおける非最大抑圧(NMS)と類似している。
顔は全体の空間性への潜在的貢献によってランク付けされ、局所的な空間性に対して高い類似性を持つ2つの顔の過剰な顔をフィルタリングする。
効率面では、Face-NMSはプロキシモデルをトレーニングする際に、小さいが十分なプロキシデータセットを適用することで、パイプライン全体を加速する。
その結果、Face-NMSでは、メインベンチマークのパフォーマンスを維持しながら、WebFace42Mデータセットを60%にスケールダウンし、40%のリソース節約と1.64倍の加速を実現しました。
コードはhttps://github.com/HuangJunJie2017/Face-NMSで公開されている。
関連論文リスト
- Toward High Quality Facial Representation Learning [58.873356953627614]
我々はMask Contrastive Face (MCF)と呼ばれる自己教師型事前学習フレームワークを提案する。
トレーニング済みの視覚バックボーンの特徴マップを監視項目として使用し、マスク画像モデリングに部分的にトレーニング済みのデコーダを使用する。
このモデルはAFLW-19顔アライメントの0.932 NME_diag$とLaPa顔解析の93.96 F1スコアを達成する。
論文 参考訳(メタデータ) (2023-09-07T09:11:49Z) - Blind Face Restoration: Benchmark Datasets and a Baseline Model [63.053331687284064]
Blind Face Restoration (BFR) は、対応する低品質 (LQ) 入力から高品質 (HQ) の顔画像を構築することを目的としている。
EDFace-Celeb-1M (BFR128) と EDFace-Celeb-150K (BFR512) と呼ばれる2つのブラインドフェイス復元ベンチマークデータセットを最初に合成する。
最先端の手法は、ブラー、ノイズ、低解像度、JPEG圧縮アーティファクト、それらの組み合わせ(完全な劣化)の5つの設定でベンチマークされる。
論文 参考訳(メタデータ) (2022-06-08T06:34:24Z) - SFace: Sigmoid-Constrained Hypersphere Loss for Robust Face Recognition [74.13631562652836]
SFace(Sigmoid-Constrained hypersphere loss)と呼ばれる新しい損失関数を提案する。
SFaceは2つのシグモイド勾配再スケール関数によってそれぞれ制御される超球面多様体にクラス内およびクラス間制約を課す。
クラス内距離を減らし、ラベルノイズへの過度な適合を防ぎ、より堅牢なディープ顔認識モデルに寄与する。
論文 参考訳(メタデータ) (2022-05-24T11:54:15Z) - FaceMAE: Privacy-Preserving Face Recognition via Masked Autoencoders [81.21440457805932]
顔のプライバシと認識性能を同時に考慮する新しいフレームワークFaceMAEを提案する。
ランダムにマスクされた顔画像は、FaceMAEの再構築モジュールのトレーニングに使用される。
また、いくつかの公開顔データセット上で十分なプライバシー保護顔認証を行う。
論文 参考訳(メタデータ) (2022-05-23T07:19:42Z) - WebFace260M: A Benchmark for Million-Scale Deep Face Recognition [89.39080252029386]
我々は、未修正4MのID/260Mの顔(WebFace260M)とクリーン2MのID/42Mの顔(WebFace42M)を含む新しい100万スケールの認識ベンチマークに貢献する。
分散フレームワークは、性能を損なうことなく、顔認識モデルを効率的に訓練するために開発された。
提案したベンチマークは、標準、マスク付き、偏見のない顔認識シナリオにおいて大きな可能性を示している。
論文 参考訳(メタデータ) (2022-04-21T14:56:53Z) - FaceOcc: A Diverse, High-quality Face Occlusion Dataset for Human Face
Extraction [3.8502825594372703]
隠蔽は野生の顔画像にしばしば発生し、ランドマーク検出や3D再構成、顔認識といった顔関連の課題に悩まされる。
本稿では,CelebA本社とインターネットから手動で顔の隠蔽をラベル付けした新しい顔のセグメンテーションデータセットを提案する。
簡単な顔分割モデルの訓練を行ったが,SOTA性能が得られ,提案したデータセットの有効性を実証した。
論文 参考訳(メタデータ) (2022-01-20T19:44:18Z) - Efficient Masked Face Recognition Method during the COVID-19 Pandemic [4.13365552362244]
新型コロナウイルス(COVID-19)は異例の危機であり、多くの死傷者やセキュリティ上の問題に繋がる。
新型コロナウイルスの感染拡大を抑えるため、マスクを着用して身を守ることが多い。
これにより、顔の一部が隠されているため、顔認識は非常に難しいタスクとなる。
論文 参考訳(メタデータ) (2021-05-07T01:32:37Z) - WebFace260M: A Benchmark Unveiling the Power of Million-Scale Deep Face
Recognition [79.65728162193584]
ノイズの多い4M顔/260M顔(WebFace260M)と2M顔/42M顔(WebFace42M)を含む新しい百万スケール顔ベンチマークを提供します。
我々は、挑戦的IJB-C集合の相対40%の故障率を減少させ、NIST-FRVTの430項目のうち3位にランク付けする。
10%のデータ(WebFace4M)でさえ、公開トレーニングセットよりも優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2021-03-06T11:12:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。