論文の概要: MultiFace: A Generic Training Mechanism for Boosting Face Recognition
Performance
- arxiv url: http://arxiv.org/abs/2101.09899v2
- Date: Sun, 31 Jan 2021 13:05:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-14 19:06:55.079956
- Title: MultiFace: A Generic Training Mechanism for Boosting Face Recognition
Performance
- Title(参考訳): MultiFace: 顔認識性能向上のためのジェネリックトレーニングメカニズム
- Authors: Jing Xu, Tszhang Guo, Zenglin Xu, Kun Bai
- Abstract要約: MultiFaceと呼ばれるシンプルで効率的なトレーニングメカニズムを提案します。
元の高次元特徴を低次元特徴のアンサンブルによって近似する。
これはクラスタリング効果を通じてFRモデルに優れた解釈可能性の利点をもたらす。
- 参考スコア(独自算出の注目度): 26.207302802393684
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Convolutional Neural Networks (DCNNs) and their variants have been
widely used in large scale face recognition(FR) recently. Existing methods have
achieved good performance on many FR benchmarks. However, most of them suffer
from two major problems. First, these methods converge quite slowly since they
optimize the loss functions in a high-dimensional and sparse Gaussian Sphere.
Second, the high dimensionality of features, despite the powerful descriptive
ability, brings difficulty to the optimization, which may lead to a sub-optimal
local optimum. To address these problems, we propose a simple yet efficient
training mechanism called MultiFace, where we approximate the original
high-dimensional features by the ensemble of low-dimensional features. The
proposed mechanism is also generic and can be easily applied to many advanced
FR models. Moreover, it brings the benefits of good interpretability to FR
models via the clustering effect. In detail, the ensemble of these
low-dimensional features can capture complementary yet discriminative
information, which can increase the intra-class compactness and inter-class
separability. Experimental results show that the proposed mechanism can
accelerate 2-3 times with the softmax loss and 1.2-1.5 times with Arcface or
Cosface, while achieving state-of-the-art performances in several benchmark
datasets. Especially, the significant improvements on large-scale
datasets(e.g., IJB and MageFace) demonstrate the flexibility of our new
training mechanism.
- Abstract(参考訳): 深層畳み込みニューラルネットワーク(DCNN)とその変種は近年,大規模顔認識(FR)で広く利用されている。
既存のメソッドは多くのFRベンチマークで優れたパフォーマンスを達成している。
しかし、そのほとんどが2つの大きな問題を抱えている。
まず、これらの手法は高次元でスパースなガウス球面における損失関数を最適化するため、非常にゆっくりと収束する。
第二に、強力な記述能力にもかかわらず、特徴の高次元性は最適化に困難をもたらし、これは準最適局所最適化につながる可能性がある。
そこで本研究では, 低次元特徴のアンサンブルにより, 本来の高次元特徴を近似する, 簡便かつ効率的な訓練機構MultiFaceを提案する。
提案機構は汎用的であり、多くの高度なFRモデルにも容易に適用できる。
さらに、クラスタリング効果を介してFRモデルに優れた解釈性の利点をもたらします。
詳しくは、これらの低次元特徴のアンサンブルは相補的かつ判別的な情報を捉えることができ、クラス内コンパクト性とクラス間分離性を高めることができる。
実験結果から,本機構はソフトマックス損失で2~3倍,アークフェイスやコスフェイスで1.2~1.5倍の高速化が可能であり,ベンチマークデータセットでは最先端の性能が得られることがわかった。
特に、大規模データセット(IJBやMageFaceなど)の大幅な改善は、新しいトレーニングメカニズムの柔軟性を示しています。
関連論文リスト
- Residual Local Feature Network for Efficient Super-Resolution [20.62809970985125]
本研究では,Residual Local Feature Network (RLFN)を提案する。
主なアイデアは、3つの畳み込みレイヤを局所的な特徴学習に使用して、機能の集約を単純化することだ。
さらに,NTIRE 2022の高効率超解像問題において,第1位を獲得した。
論文 参考訳(メタデータ) (2022-05-16T08:46:34Z) - Distributed Dynamic Safe Screening Algorithms for Sparse Regularization [73.85961005970222]
本稿では,分散動的安全スクリーニング(DDSS)手法を提案し,共有メモリアーキテクチャと分散メモリアーキテクチャにそれぞれ適用する。
提案手法は, 線形収束率を低次複雑度で達成し, 有限個の繰り返しにおいてほとんどすべての不活性な特徴をほぼ確実に除去できることを示す。
論文 参考訳(メタデータ) (2022-04-23T02:45:55Z) - Rich Feature Construction for the Optimization-Generalization Dilemma [18.721567020497968]
我々は、モデルで使用できる潜在的に有用な機能のパレットを含むリッチな表現(RFC)を構築する。
RFCは、6つのOoDメソッドが挑戦的な不変トレーニングベンチマークで最高のパフォーマンスを達成するのを一貫して支援します。
現実的な Camelyon17 タスクでは,OoD と OoD の両手法が,従来の計算可能な結果に対して少なくとも 5% 以上の性能を発揮する。
論文 参考訳(メタデータ) (2022-03-24T20:39:33Z) - A Brain-Inspired Low-Dimensional Computing Classifier for Inference on
Tiny Devices [17.976792694929063]
超次元コンピューティング(HDC)に代わる低次元コンピューティング(LDC)を提案する。
我々は、LCC分類器をニューラルネットワークにマッピングし、原則化されたトレーニングアプローチを用いてモデルを最適化する。
我々のLCC分類器は、既存の脳にインスパイアされたHDCモデルに対して圧倒的な優位性を提供し、特に小さなデバイスでの推論に適している。
論文 参考訳(メタデータ) (2022-03-09T17:20:12Z) - Fourier Space Losses for Efficient Perceptual Image Super-Resolution [131.50099891772598]
提案した損失関数の適用のみで,最近導入された効率的なジェネレータアーキテクチャの性能向上が可能であることを示す。
フーリエ空間における周波数に対する損失の直接的強調は知覚的画質を著しく向上させることを示す。
訓練されたジェネレータは、最先端の知覚的SR法である RankSRGAN と SRFlow よりも2.4倍、48倍高速である。
論文 参考訳(メタデータ) (2021-06-01T20:34:52Z) - EV-VGCNN: A Voxel Graph CNN for Event-based Object Classification [18.154951807178943]
イベントカメラは、少ない強度変化を報告し、ポータブルデバイス上での視覚知覚と理解のための低消費電力、高ダイナミックレンジ、高応答速度の顕著な利点を目立たせる。
イベントベースの学習手法は、従来の2次元学習アルゴリズムを適用するために、イベントを密度の高いフレームベースの表現に統合することで、オブジェクト認識において大きな成功を収めている。
これらのアプローチは、スパース・トゥ・ディエンス変換の期間中に多くの冗長な情報を導入し、重量と大容量のモデルを必要とするため、リアルタイムアプリケーションにおけるイベントカメラの可能性を制限する。
論文 参考訳(メタデータ) (2021-06-01T04:07:03Z) - Frequency-aware Discriminative Feature Learning Supervised by
Single-Center Loss for Face Forgery Detection [89.43987367139724]
顔の偽造検出は、コンピュータビジョンへの関心をますます高めている。
近年の業績は良好なものとなっているが、いまだに無視できない問題がある。
本稿では,新しい周波数認識型特徴学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-16T14:17:17Z) - Learning N:M Fine-grained Structured Sparse Neural Networks From Scratch [75.69506249886622]
ディープニューラルネットワーク(DNN)におけるスパーシティは、資源制約された環境でモデルを圧縮し、加速するために広く研究されている。
本稿では,N:M細粒構造スパースネットワークのスクラッチからトレーニングを初めて行う。
論文 参考訳(メタデータ) (2021-02-08T05:55:47Z) - Visualizing High-Dimensional Trajectories on the Loss-Landscape of ANNs [15.689418447376587]
ニューラルネットワークを訓練するには、高度に非次元的な損失関数の最適化が必要である。
可視化ツールは、ANNの損失ランドスケープの鍵となる幾何学的特徴を明らかにする上で重要な役割を果たしてきた。
局所構造と大域構造の両方でSOTAを表すモダニティ低減手法を提案する。
論文 参考訳(メタデータ) (2021-01-31T16:30:50Z) - Secrets of 3D Implicit Object Shape Reconstruction in the Wild [92.5554695397653]
コンピュータビジョン、ロボティクス、グラフィックスの様々な用途において、高精細な3Dオブジェクトをスパースから再構築することは重要です。
最近の神経暗黙的モデリング法は、合成データセットまたは高密度データセットで有望な結果を示す。
しかし、粗末でノイズの多い実世界のデータではパフォーマンスが悪い。
本論文では, 一般的な神経暗黙モデルの性能低下の根本原因を解析する。
論文 参考訳(メタデータ) (2021-01-18T03:24:48Z) - Fully Quantized Image Super-Resolution Networks [81.75002888152159]
効率と精度を両立させるためのフル量子化画像超解像フレームワーク(FQSR)を提案する。
我々は、SRResNet、SRGAN、EDSRを含む複数の主流超解像アーキテクチャに量子化スキームを適用した。
低ビット量子化を用いたFQSRは、5つのベンチマークデータセットの完全精度と比較すると、パー性能で実現できる。
論文 参考訳(メタデータ) (2020-11-29T03:53:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。