論文の概要: MixFaceNets: Extremely Efficient Face Recognition Networks
- arxiv url: http://arxiv.org/abs/2107.13046v1
- Date: Tue, 27 Jul 2021 19:10:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-29 14:01:36.696721
- Title: MixFaceNets: Extremely Efficient Face Recognition Networks
- Title(参考訳): MixFaceNets: 極めて効率的な顔認識ネットワーク
- Authors: Fadi Boutros, Naser Damer, Meiling Fang, Florian Kirchbuchner and
Arjan Kuijper
- Abstract要約: 顔認証のための極めて効率的な高スループットモデルであるMixFaceNetsを提案する。
The Label Face in the Wild (LFW), Age-DB, MegaFace, IARPA Janus Benchmarks IJB-B と IJB-C を用いた実験により,MixFaceNet の有効性が示された。
500Mと1GのFLOPの計算複雑性により、MixFaceNetsは上位モデルに匹敵する結果を得た。
- 参考スコア(独自算出の注目度): 6.704751710867745
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present a set of extremely efficient and high throughput
models for accurate face verification, MixFaceNets which are inspired by Mixed
Depthwise Convolutional Kernels. Extensive experiment evaluations on Label Face
in the Wild (LFW), Age-DB, MegaFace, and IARPA Janus Benchmarks IJB-B and IJB-C
datasets have shown the effectiveness of our MixFaceNets for applications
requiring extremely low computational complexity. Under the same level of
computation complexity (< 500M FLOPs), our MixFaceNets outperform
MobileFaceNets on all the evaluated datasets, achieving 99.60% accuracy on LFW,
97.05% accuracy on AgeDB-30, 93.60 TAR (at FAR1e-6) on MegaFace, 90.94 TAR (at
FAR1e-4) on IJB-B and 93.08 TAR (at FAR1e-4) on IJB-C. With computational
complexity between 500M and 1G FLOPs, our MixFaceNets achieved results
comparable to the top-ranked models, while using significantly fewer FLOPs and
less computation overhead, which proves the practical value of our proposed
MixFaceNets. All training codes, pre-trained models, and training logs have
been made available https://github.com/fdbtrs/mixfacenets.
- Abstract(参考訳): 本稿では,Mixed Depthwise Convolutional Kernelsにインスパイアされた,顔認証のための極めて効率的な高スループットモデルであるMixFaceNetを提案する。
ワイルド(LFW)におけるラベルフェイス,Age-DB,MegaFace,IARPA Janus Benchmarks IJB-B,IJB-Cデータセットの大規模な実験結果から,計算複雑性が極めて低いアプリケーションに対するMixFaceNetsの有効性が示された。
Under the same level of computation complexity (< 500M FLOPs), our MixFaceNets outperform MobileFaceNets on all the evaluated datasets, achieving 99.60% accuracy on LFW, 97.05% accuracy on AgeDB-30, 93.60 TAR (at FAR1e-6) on MegaFace, 90.94 TAR (at FAR1e-4) on IJB-B and 93.08 TAR (at FAR1e-4) on IJB-C. With computational complexity between 500M and 1G FLOPs, our MixFaceNets achieved results comparable to the top-ranked models, while using significantly fewer FLOPs and less computation overhead, which proves the practical value of our proposed MixFaceNets.
すべてのトレーニングコード、事前トレーニングされたモデル、トレーニングログがhttps://github.com/fdbtrs/mixfacenetsで利用可能になった。
関連論文リスト
- Can we learn better with hard samples? [0.0]
従来のアルゴリズムの変種が提案され、ネットワークは損失の高いミニバッチに焦点を絞った訓練を行っている。
提案手法は,STL-10上のEfficientNet-B4において,従来のミニバッチ法よりも26.47%少ないエポック数で一般化可能であることを示す。
論文 参考訳(メタデータ) (2023-04-07T05:45:26Z) - Training Deep Boltzmann Networks with Sparse Ising Machines [5.048818298702389]
深層生成AIモデルをトレーニングすることにより,確率ビット(pビット)ベースのIsingマシンのための新しいアプリケーションドメインを示す。
スパース、非同期、および非常に並列なIsingマシンを使用して、ハイブリッド確率-古典計算設定でディープボルツマンネットワークを訓練する。
論文 参考訳(メタデータ) (2023-03-19T18:10:15Z) - Blind Face Restoration: Benchmark Datasets and a Baseline Model [63.053331687284064]
Blind Face Restoration (BFR) は、対応する低品質 (LQ) 入力から高品質 (HQ) の顔画像を構築することを目的としている。
EDFace-Celeb-1M (BFR128) と EDFace-Celeb-150K (BFR512) と呼ばれる2つのブラインドフェイス復元ベンチマークデータセットを最初に合成する。
最先端の手法は、ブラー、ノイズ、低解像度、JPEG圧縮アーティファクト、それらの組み合わせ(完全な劣化)の5つの設定でベンチマークされる。
論文 参考訳(メタデータ) (2022-06-08T06:34:24Z) - WebFace260M: A Benchmark for Million-Scale Deep Face Recognition [89.39080252029386]
我々は、未修正4MのID/260Mの顔(WebFace260M)とクリーン2MのID/42Mの顔(WebFace42M)を含む新しい100万スケールの認識ベンチマークに貢献する。
分散フレームワークは、性能を損なうことなく、顔認識モデルを効率的に訓練するために開発された。
提案したベンチマークは、標準、マスク付き、偏見のない顔認識シナリオにおいて大きな可能性を示している。
論文 参考訳(メタデータ) (2022-04-21T14:56:53Z) - Greedy Network Enlarging [53.319011626986004]
本稿では,計算のリアルタイム化に基づくグリーディ・ネットワーク拡大手法を提案する。
異なる段階の計算をステップバイステップで修正することで、拡張されたネットワークはMACの最適な割り当てと利用を提供する。
GhostNetへの我々の手法の適用により、最先端の80.9%と84.3%のImageNet Top-1アキュラシーを実現する。
論文 参考訳(メタデータ) (2021-07-31T08:36:30Z) - FedFace: Collaborative Learning of Face Recognition Model [66.84737075622421]
FedFaceは顔認識モデルの協調学習のためのフレームワークである。
各クライアントに格納された顔画像が、他のクライアントや中央ホストと共有されない、正確で汎用的な顔認識モデルを学ぶ。
コードとトレーニング済みモデルは公開される予定です。
論文 参考訳(メタデータ) (2021-04-07T09:25:32Z) - WebFace260M: A Benchmark Unveiling the Power of Million-Scale Deep Face
Recognition [79.65728162193584]
ノイズの多い4M顔/260M顔(WebFace260M)と2M顔/42M顔(WebFace42M)を含む新しい百万スケール顔ベンチマークを提供します。
我々は、挑戦的IJB-C集合の相対40%の故障率を減少させ、NIST-FRVTの430項目のうち3位にランク付けする。
10%のデータ(WebFace4M)でさえ、公開トレーニングセットよりも優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2021-03-06T11:12:43Z) - EagleEye: Fast Sub-net Evaluation for Efficient Neural Network Pruning [82.54669314604097]
EagleEyeは、適応型バッチ正規化に基づく、シンプルだが効率的な評価コンポーネントである。
異なる破砕された構造と最終的な精度の間に強い相関関係が明らかになる。
このモジュールは、既存のプルーニングアルゴリズムをプラグインし改善するためにも一般的である。
論文 参考訳(メタデータ) (2020-07-06T01:32:31Z) - TResNet: High Performance GPU-Dedicated Architecture [6.654949459658242]
近年開発された多くのディープラーニングモデルは、FLOPS数が少なく、ResNet50よりもImageNetの精度が高い。
本稿では、GPUトレーニングと推論効率を維持しながら、ニューラルネットワークの精度を高めることを目的としたアーキテクチャ修正のシリーズを紹介する。
我々は、従来のConvNetよりも精度と効率を向上する、TResNetと呼ばれるGPU専用モデルの新しいファミリーを紹介する。
論文 参考訳(メタデータ) (2020-03-30T17:04:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。