論文の概要: QGFace: Quality-Guided Joint Training For Mixed-Quality Face Recognition
- arxiv url: http://arxiv.org/abs/2312.17494v1
- Date: Fri, 29 Dec 2023 06:56:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-02 12:46:58.324502
- Title: QGFace: Quality-Guided Joint Training For Mixed-Quality Face Recognition
- Title(参考訳): qgface: 混合品質顔認識のための品質誘導共同学習
- Authors: Youzhe Song and Feng Wang
- Abstract要約: 混合品質顔認証のための新しい品質誘導型共同訓練手法を提案する。
品質分割に基づいて、分類に基づく手法が本社データ学習に用いられている。
識別情報を欠いたLQ画像に対しては,自己教師付き画像イメージコントラスト学習を用いて学習する。
- 参考スコア(独自算出の注目度): 2.8519768339207356
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The quality of a face crop in an image is decided by many factors such as
camera resolution, distance, and illumination condition. This makes the
discrimination of face images with different qualities a challenging problem in
realistic applications. However, most existing approaches are designed
specifically for high-quality (HQ) or low-quality (LQ) images, and the
performances would degrade for the mixed-quality images. Besides, many methods
ask for pre-trained feature extractors or other auxiliary structures to support
the training and the evaluation. In this paper, we point out that the key to
better understand both the HQ and the LQ images simultaneously is to apply
different learning methods according to their qualities. We propose a novel
quality-guided joint training approach for mixed-quality face recognition,
which could simultaneously learn the images of different qualities with a
single encoder. Based on quality partition, classification-based method is
employed for HQ data learning. Meanwhile, for the LQ images which lack identity
information, we learn them with self-supervised image-image contrastive
learning. To effectively catch up the model update and improve the
discriminability of contrastive learning in our joint training scenario, we
further propose a proxy-updated real-time queue to compose the contrastive
pairs with features from the genuine encoder. Experiments on the low-quality
datasets SCface and Tinyface, the mixed-quality dataset IJB-B, and five
high-quality datasets demonstrate the effectiveness of our proposed approach in
recognizing face images of different qualities.
- Abstract(参考訳): 画像中の顔作物の品質は、カメラの解像度、距離、照明条件などの多くの要因によって決定される。
これにより、現実的なアプリケーションでは、異なる品質の顔画像の識別が困難な問題となる。
しかし、既存のほとんどのアプローチは、高品質(HQ)または低品質(LQ)の画像に特化して設計されており、その性能は混合画質で劣化する。
また, 事前訓練した特徴抽出器や他の補助構造を用いて, 訓練と評価を支援する手法も多数存在する。
本稿では,本部画像とLQ画像の両方を同時に理解するための鍵は,その特性に応じて異なる学習手法を適用することである,と指摘する。
本論文では,単一エンコーダで異なる品質の画像を同時に学習できる,混合品質顔認識のための新しい品質誘導共同学習手法を提案する。
品質分割に基づいて、hqデータ学習に分類に基づく手法を用いる。
一方,id情報を持たないlq画像では,自己教師付き画像コントラスト学習によって学習する。
モデル更新を効果的にキャッチアップし、協調訓練シナリオにおけるコントラスト学習の識別性を向上させるために、真のエンコーダの機能を備えたコントラストペアを構成するプロキシ更新リアルタイムキューを提案する。
低品質データセットSCfaceとTinyface、混合品質データセットIJB-B、および5つの高品質データセットの実験は、異なる品質の顔画像を認識するための提案手法の有効性を示した。
関連論文リスト
- Rank-based No-reference Quality Assessment for Face Swapping [88.53827937914038]
顔スワップ法における品質測定の基準は、操作された画像とソース画像の間のいくつかの距離に依存する。
顔スワップ用に設計された新しい非参照画像品質評価法(NR-IQA)を提案する。
論文 参考訳(メタデータ) (2024-06-04T01:36:29Z) - Dual-Branch Network for Portrait Image Quality Assessment [76.27716058987251]
ポートレート画像品質評価のためのデュアルブランチネットワーク(PIQA)を提案する。
我々は2つのバックボーンネットワーク(textiti.e., Swin Transformer-B)を使用して、肖像画全体と顔画像から高品質な特徴を抽出する。
我々は、画像シーンの分類と品質評価モデルであるLIQEを利用して、品質認識とシーン固有の特徴を補助的特徴として捉えている。
論文 参考訳(メタデータ) (2024-05-14T12:43:43Z) - Multi-Modal Prompt Learning on Blind Image Quality Assessment [65.0676908930946]
画像品質評価(IQA)モデルは意味情報から大きな恩恵を受け、異なる種類のオブジェクトを明瞭に扱うことができる。
十分な注釈付きデータが不足している従来の手法では、セマンティックな認識を得るために、CLIPイメージテキスト事前学習モデルをバックボーンとして使用していた。
近年のアプローチでは、このミスマッチに即時技術を使って対処する試みがあるが、これらの解決策には欠点がある。
本稿では、IQAのための革新的なマルチモーダルプロンプトベースの手法を提案する。
論文 参考訳(メタデータ) (2024-04-23T11:45:32Z) - Quality-Aware Image-Text Alignment for Real-World Image Quality Assessment [8.431867616409958]
No-Reference Image Quality Assessment (NR-IQA) は、高画質の参照画像が利用できない場合に、人間の知覚に合わせて画像品質を測定する方法に焦点を当てている。
最先端のNR-IQAアプローチの大部分における注釈付き平均オピニオンスコア(MOS)への依存は、そのスケーラビリティと実際のシナリオへの適用性を制限している。
ラベル付きMOSを必要としないCLIPベースの自己教師型意見認識手法であるQuariCLIPを提案する。
論文 参考訳(メタデータ) (2024-03-17T11:32:18Z) - Blind Image Quality Assessment via Vision-Language Correspondence: A
Multitask Learning Perspective [93.56647950778357]
ブラインド画像品質評価(BIQA)は、参照情報なしで画像品質の人間の知覚を予測する。
我々は,他のタスクからの補助的知識を活用するために,BIQAのための汎用的かつ自動化されたマルチタスク学習手法を開発した。
論文 参考訳(メタデータ) (2023-03-27T07:58:09Z) - Quality-aware Pre-trained Models for Blind Image Quality Assessment [15.566552014530938]
ブラインド画像品質評価(BIQA)は,画像の知覚品質を自動的に評価することを目的としている。
本稿では,BIQA用にカスタマイズされたプレテキストタスクを用いて,自己教師型学習方式でこの問題を解決することを提案する。
論文 参考訳(メタデータ) (2023-03-01T13:52:40Z) - AdaFace: Quality Adaptive Margin for Face Recognition [56.99208144386127]
本稿では、損失関数、すなわち画像品質における適応性の別の側面を紹介する。
そこで本稿では,画像品質に基づいて異なる難易度を示す新たな損失関数を提案する。
提案手法は,4つのデータセット上でのSoTA(State-of-the-art)による顔認識性能を向上させる。
論文 参考訳(メタデータ) (2022-04-03T01:23:41Z) - FaceQgen: Semi-Supervised Deep Learning for Face Image Quality
Assessment [19.928262020265965]
FaceQgenは、ジェネレーティブ・アドバイサル・ネットワークに基づく顔画像の非参照品質評価手法である。
顔認識精度に関連するスカラー品質尺度を生成する。
SCfaceデータベースを使用して、スクラッチからトレーニングされる。
論文 参考訳(メタデータ) (2022-01-03T17:22:38Z) - CR-FIQA: Face Image Quality Assessment by Learning Sample Relative
Classifiability [2.3624125155742055]
本稿では,学習過程における内部ネットワーク観測を学習する新しい学習パラダイムを提案する。
提案するCR-FIQAは,このパラダイムを用いて,サンプルの顔画像品質を,その相対的分類可能性の予測により推定する。
本研究では, 最先端(SOTA) FIQAアルゴリズムよりもCR-FIQAの方が優れていることを示す。
論文 参考訳(メタデータ) (2021-12-13T12:18:43Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - No-Reference Image Quality Assessment via Feature Fusion and Multi-Task
Learning [29.19484863898778]
ブラインドまたはノン参照画像品質評価(NR-IQA)は基本的な問題であり、未解決であり、難しい問題である。
マルチタスク学習に基づく簡易かつ効果的な汎用的ノンリフレクション(NR)画像品質評価フレームワークを提案する。
このモデルでは、歪み型と主観的な人間のスコアを用いて画質を推定する。
論文 参考訳(メタデータ) (2020-06-06T05:04:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。