論文の概要: CATFace: Cross-Attribute-Guided Transformer with Self-Attention
Distillation for Low-Quality Face Recognition
- arxiv url: http://arxiv.org/abs/2401.03037v1
- Date: Fri, 5 Jan 2024 19:21:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-09 20:45:20.597485
- Title: CATFace: Cross-Attribute-Guided Transformer with Self-Attention
Distillation for Low-Quality Face Recognition
- Title(参考訳): CATFace:低品質顔認識のための自己注意蒸留を用いたクロスアトリビュート型変換器
- Authors: Niloufar Alipour Talemi, Hossein Kashiani, and Nasser M. Nasrabadi
- Abstract要約: 顔認識(FR)の性能を高めるために,ソフトバイオメトリックス(SB)属性情報を利用する新しいマルチブランチニューラルネットワークを提案する。
特徴空間において,高品質な画像と高品質な画像とを整列させることにより,ランドマークなどの重要な顔領域を効果的に強調する,新しい自己注意蒸留フレームワークを導入する。
- 参考スコア(独自算出の注目度): 12.129404936688752
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although face recognition (FR) has achieved great success in recent years, it
is still challenging to accurately recognize faces in low-quality images due to
the obscured facial details. Nevertheless, it is often feasible to make
predictions about specific soft biometric (SB) attributes, such as gender, and
baldness even in dealing with low-quality images. In this paper, we propose a
novel multi-branch neural network that leverages SB attribute information to
boost the performance of FR. To this end, we propose a cross-attribute-guided
transformer fusion (CATF) module that effectively captures the long-range
dependencies and relationships between FR and SB feature representations. The
synergy created by the reciprocal flow of information in the dual
cross-attention operations of the proposed CATF module enhances the performance
of FR. Furthermore, we introduce a novel self-attention distillation framework
that effectively highlights crucial facial regions, such as landmarks by
aligning low-quality images with those of their high-quality counterparts in
the feature space. The proposed self-attention distillation regularizes our
network to learn a unified quality-invariant feature representation in
unconstrained environments. We conduct extensive experiments on various FR
benchmarks varying in quality. Experimental results demonstrate the superiority
of our FR method compared to state-of-the-art FR studies.
- Abstract(参考訳): 近年、顔認識(FR)は大きな成功を収めているが、不明瞭な顔の詳細のため、画質の低い画像の顔を正確に認識することは依然として困難である。
それでも、低画質の画像を扱う場合でも、性別やハゲネスといった特定のソフトバイオメトリックス(SB)属性について予測することがしばしば可能である。
本稿では,SB属性情報を利用してFRの性能を向上させるマルチブランチニューラルネットワークを提案する。
この目的のために, FR と SB の特徴表現の長距離依存性と関係を効果的に捕捉するクロスアトリビュート誘導型トランスフォーマー融合 (CATF) モジュールを提案する。
提案したCATFモジュールの二重対向動作における情報の相互流れによって生じる相乗効果によりFRの性能が向上する。
さらに,低品質画像と高画質画像とを連携させることにより,ランドマークなどの重要な顔領域を効果的に強調する,新しいセルフアテンション蒸留フレームワークを提案する。
提案するセルフアテンション蒸留は, ネットワークを定式化し, 非拘束環境における品質不変な特徴表現を統一的に学習する。
品質の異なる様々なfrベンチマークについて広範な実験を行う。
実験の結果,最先端FR法と比較してFR法が優れていることが示された。
関連論文リスト
- ARoFace: Alignment Robustness to Improve Low-Quality Face Recognition [16.40653529334528]
本稿では、顔認識(FR)に適合した別の品質要因として、FAE(Face Alignment Errors)を考慮した手法を提案する。
我々は、FRにおける微分可能な空間変換と逆データ拡張の組合せとして問題を定式化する。
提案手法の利点をIJB-B, IJB-C, IJB-S, TinyFaceで評価することにより示す。
論文 参考訳(メタデータ) (2024-07-20T19:58:41Z) - DiffFAE: Advancing High-fidelity One-shot Facial Appearance Editing with Space-sensitive Customization and Semantic Preservation [84.0586749616249]
本稿では,高忠実度顔画像編集に適した1段階かつ高効率な拡散ベースフレームワークDiffFAEを提案する。
高忠実度クエリ属性転送には、空間感性物理カスタマイズ(SPC)を採用し、忠実度と一般化能力を保証している。
ソース属性を保存するために、Regional-responsive Semantic Composition (RSC)を導入する。
このモジュールは、切り離されたソースを無視する特徴を学習するためにガイドされ、髪、服、背景などの非顔的属性からアーティファクトを保存し緩和する。
論文 参考訳(メタデータ) (2024-03-26T12:53:10Z) - Text-Guided Face Recognition using Multi-Granularity Cross-Modal
Contrastive Learning [0.0]
テキスト誘導顔認識(TGFR)を導入し、自然言語記述の形で顔属性を統合することの影響を解析する。
TGFRは、特に低画質の画像において、既存の顔認識モデルよりも顕著に改善されている。
論文 参考訳(メタデータ) (2023-12-14T22:04:22Z) - TransFA: Transformer-based Representation for Face Attribute Evaluation [87.09529826340304]
我々はtextbfTransFA を用いたtextbfattribute 評価のための新しい textbf Transformer 表現を提案する。
提案するTransFAは,最先端手法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2022-07-12T10:58:06Z) - Learning Transformer Features for Image Quality Assessment [53.51379676690971]
本稿では,CNNバックボーンとトランスフォーマーエンコーダを用いて特徴抽出を行うIQAフレームワークを提案する。
提案するフレームワークはFRモードとNRモードの両方と互換性があり、共同トレーニング方式が可能である。
論文 参考訳(メタデータ) (2021-12-01T13:23:00Z) - Deep Tiny Network for Recognition-Oriented Face Image Quality Assessment [26.792481400792376]
多くの顔認識(FR)のシナリオでは、顔画像は大きな変分を含むシーケンスから取得される。
本稿では、画像品質評価(IQA)とFRを直接リンクするFRの非参照画像品質評価を行う。
提案した品質測定に基づいて,データから品質予測関数を学習する深層顔品質ネットワーク(tinyFQnet)を提案する。
論文 参考訳(メタデータ) (2021-06-09T07:20:54Z) - Hierarchical Deep CNN Feature Set-Based Representation Learning for
Robust Cross-Resolution Face Recognition [59.29808528182607]
クロスリゾリューション顔認識(CRFR)は、インテリジェントな監視およびバイオメトリックフォレンジックにおいて重要である。
既存の浅層学習と深層学習に基づく手法は、HR-LR対を共同特徴空間にマッピングすることに焦点を当てている。
本研究では,多レベル深層畳み込みニューラルネットワーク(CNN)の機能を完全に活用し,堅牢なCRFRを実現することを目的とする。
論文 参考訳(メタデータ) (2021-03-25T14:03:42Z) - A Comprehensive Study on Face Recognition Biases Beyond Demographics [12.18029358410109]
顔認識(FR)システムは重要な意思決定プロセスに影響を及ぼす。
近年の研究では、FRソリューションはユーザの人口統計に基づく大きなパフォーマンス差を示すことが示されている。
信頼できるFR技術を可能にするには、FRに対する顔の属性の拡張範囲の影響を知ることが不可欠です。
論文 参考訳(メタデータ) (2021-03-02T09:29:09Z) - Unpaired Image Enhancement with Quality-Attention Generative Adversarial
Network [92.01145655155374]
品質の注意を払わないデータに基づいて訓練された生成敵対ネットワーク(QAGAN)を提案する。
提案されたQAGANの重要な新規性は、ジェネレータの注入されたQAMにある。
提案手法は客観的評価と主観評価の両方において良好な性能を実現する。
論文 参考訳(メタデータ) (2020-12-30T05:57:20Z) - Face Anti-Spoofing Via Disentangled Representation Learning [90.90512800361742]
顔認識システムのセキュリティには、顔の偽造が不可欠だ。
本稿では,画像から生意気な特徴やコンテンツの特徴を乱す顔のアンチ・スプーフィングの新たな視点を提案する。
論文 参考訳(メタデータ) (2020-08-19T03:54:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。