論文の概要: QGFace: Quality-Guided Joint Training For Mixed-Quality Face Recognition
- arxiv url: http://arxiv.org/abs/2312.17494v1
- Date: Fri, 29 Dec 2023 06:56:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-02 12:46:58.324502
- Title: QGFace: Quality-Guided Joint Training For Mixed-Quality Face Recognition
- Title(参考訳): qgface: 混合品質顔認識のための品質誘導共同学習
- Authors: Youzhe Song and Feng Wang
- Abstract要約: 混合品質顔認証のための新しい品質誘導型共同訓練手法を提案する。
品質分割に基づいて、分類に基づく手法が本社データ学習に用いられている。
識別情報を欠いたLQ画像に対しては,自己教師付き画像イメージコントラスト学習を用いて学習する。
- 参考スコア(独自算出の注目度): 2.8519768339207356
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The quality of a face crop in an image is decided by many factors such as
camera resolution, distance, and illumination condition. This makes the
discrimination of face images with different qualities a challenging problem in
realistic applications. However, most existing approaches are designed
specifically for high-quality (HQ) or low-quality (LQ) images, and the
performances would degrade for the mixed-quality images. Besides, many methods
ask for pre-trained feature extractors or other auxiliary structures to support
the training and the evaluation. In this paper, we point out that the key to
better understand both the HQ and the LQ images simultaneously is to apply
different learning methods according to their qualities. We propose a novel
quality-guided joint training approach for mixed-quality face recognition,
which could simultaneously learn the images of different qualities with a
single encoder. Based on quality partition, classification-based method is
employed for HQ data learning. Meanwhile, for the LQ images which lack identity
information, we learn them with self-supervised image-image contrastive
learning. To effectively catch up the model update and improve the
discriminability of contrastive learning in our joint training scenario, we
further propose a proxy-updated real-time queue to compose the contrastive
pairs with features from the genuine encoder. Experiments on the low-quality
datasets SCface and Tinyface, the mixed-quality dataset IJB-B, and five
high-quality datasets demonstrate the effectiveness of our proposed approach in
recognizing face images of different qualities.
- Abstract(参考訳): 画像中の顔作物の品質は、カメラの解像度、距離、照明条件などの多くの要因によって決定される。
これにより、現実的なアプリケーションでは、異なる品質の顔画像の識別が困難な問題となる。
しかし、既存のほとんどのアプローチは、高品質(HQ)または低品質(LQ)の画像に特化して設計されており、その性能は混合画質で劣化する。
また, 事前訓練した特徴抽出器や他の補助構造を用いて, 訓練と評価を支援する手法も多数存在する。
本稿では,本部画像とLQ画像の両方を同時に理解するための鍵は,その特性に応じて異なる学習手法を適用することである,と指摘する。
本論文では,単一エンコーダで異なる品質の画像を同時に学習できる,混合品質顔認識のための新しい品質誘導共同学習手法を提案する。
品質分割に基づいて、hqデータ学習に分類に基づく手法を用いる。
一方,id情報を持たないlq画像では,自己教師付き画像コントラスト学習によって学習する。
モデル更新を効果的にキャッチアップし、協調訓練シナリオにおけるコントラスト学習の識別性を向上させるために、真のエンコーダの機能を備えたコントラストペアを構成するプロキシ更新リアルタイムキューを提案する。
低品質データセットSCfaceとTinyface、混合品質データセットIJB-B、および5つの高品質データセットの実験は、異なる品質の顔画像を認識するための提案手法の有効性を示した。
関連論文リスト
- Interpretable Image Quality Assessment via CLIP with Multiple
Antonym-Prompt Pairs [1.6317061277457001]
基準画像品質評価(NR-IQA)は、対応する原画像なしで画像の知覚品質を推定するタスクである。
本稿では,事前学習した視覚モデルの能力を生かした新しいゼロショットかつ解釈可能なNRIQA法を提案する。
実験の結果,提案手法は既存のゼロショットNR-IQA法よりも精度が高いことがわかった。
論文 参考訳(メタデータ) (2023-08-24T21:37:00Z) - Blind Image Quality Assessment via Vision-Language Correspondence: A
Multitask Learning Perspective [93.56647950778357]
ブラインド画像品質評価(BIQA)は、参照情報なしで画像品質の人間の知覚を予測する。
我々は,他のタスクからの補助的知識を活用するために,BIQAのための汎用的かつ自動化されたマルチタスク学習手法を開発した。
論文 参考訳(メタデータ) (2023-03-27T07:58:09Z) - Quality-aware Pre-trained Models for Blind Image Quality Assessment [15.566552014530938]
ブラインド画像品質評価(BIQA)は,画像の知覚品質を自動的に評価することを目的としている。
本稿では,BIQA用にカスタマイズされたプレテキストタスクを用いて,自己教師型学習方式でこの問題を解決することを提案する。
論文 参考訳(メタデータ) (2023-03-01T13:52:40Z) - Controllable Image Enhancement [66.18525728881711]
いくつかのパラメータを制御して、複数のスタイルで高品質な画像を生成できる半自動画像強調アルゴリズムを提案する。
エンコーダ・デコーダフレームワークは、リタッチスキルを潜在コードにエンコードし、イメージ信号処理機能のパラメータにデコードする。
論文 参考訳(メタデータ) (2022-06-16T23:54:53Z) - Conformer and Blind Noisy Students for Improved Image Quality Assessment [80.57006406834466]
知覚品質評価(IQA)のための学習ベースアプローチは、通常、知覚品質を正確に測定するために歪んだ画像と参照画像の両方を必要とする。
本研究では,変換器を用いた全参照IQAモデルの性能について検討する。
また,全教師モデルから盲人学生モデルへの半教師付き知識蒸留に基づくIQAの手法を提案する。
論文 参考訳(メタデータ) (2022-04-27T10:21:08Z) - AdaFace: Quality Adaptive Margin for Face Recognition [56.99208144386127]
本稿では、損失関数、すなわち画像品質における適応性の別の側面を紹介する。
そこで本稿では,画像品質に基づいて異なる難易度を示す新たな損失関数を提案する。
提案手法は,4つのデータセット上でのSoTA(State-of-the-art)による顔認識性能を向上させる。
論文 参考訳(メタデータ) (2022-04-03T01:23:41Z) - FaceQgen: Semi-Supervised Deep Learning for Face Image Quality
Assessment [19.928262020265965]
FaceQgenは、ジェネレーティブ・アドバイサル・ネットワークに基づく顔画像の非参照品質評価手法である。
顔認識精度に関連するスカラー品質尺度を生成する。
SCfaceデータベースを使用して、スクラッチからトレーニングされる。
論文 参考訳(メタデータ) (2022-01-03T17:22:38Z) - CR-FIQA: Face Image Quality Assessment by Learning Sample Relative
Classifiability [2.3624125155742055]
本稿では,学習過程における内部ネットワーク観測を学習する新しい学習パラダイムを提案する。
提案するCR-FIQAは,このパラダイムを用いて,サンプルの顔画像品質を,その相対的分類可能性の予測により推定する。
本研究では, 最先端(SOTA) FIQAアルゴリズムよりもCR-FIQAの方が優れていることを示す。
論文 参考訳(メタデータ) (2021-12-13T12:18:43Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - No-Reference Image Quality Assessment via Feature Fusion and Multi-Task
Learning [29.19484863898778]
ブラインドまたはノン参照画像品質評価(NR-IQA)は基本的な問題であり、未解決であり、難しい問題である。
マルチタスク学習に基づく簡易かつ効果的な汎用的ノンリフレクション(NR)画像品質評価フレームワークを提案する。
このモデルでは、歪み型と主観的な人間のスコアを用いて画質を推定する。
論文 参考訳(メタデータ) (2020-06-06T05:04:10Z) - Uncertainty-Aware Blind Image Quality Assessment in the Laboratory and
Wild [98.48284827503409]
我々は,テキスト化BIQAモデルを開発し,それを合成的および現実的歪みの両方で訓練するアプローチを提案する。
我々は、多数の画像ペアに対してBIQAのためのディープニューラルネットワークを最適化するために、忠実度損失を用いる。
6つのIQAデータベースの実験は、実験室と野生動物における画像品質を盲目的に評価する学習手法の可能性を示唆している。
論文 参考訳(メタデータ) (2020-05-28T13:35:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。