論文の概要: A Quality Aware Sample-to-Sample Comparison for Face Recognition
- arxiv url: http://arxiv.org/abs/2306.04000v1
- Date: Tue, 6 Jun 2023 20:28:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-08 17:21:08.512353
- Title: A Quality Aware Sample-to-Sample Comparison for Face Recognition
- Title(参考訳): 顔認識のための良質なサンプル対サンプル比較
- Authors: Mohammad Saeed Ebrahimi Saadabadi, Sahar Rahimi Malakshan, Ali Zafari,
Moktari Mostofa, Nasser M. Nasrabadi
- Abstract要約: この研究は、サンプルレベルで品質を意識した学習プロセスを分類訓練パラダイム(QAFace)に統合する。
本手法は,トレーニングデータセットの認識可能な低品質サンプルに適応的に注目する。
- 参考スコア(独自算出の注目度): 13.96448286983864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Currently available face datasets mainly consist of a large number of
high-quality and a small number of low-quality samples. As a result, a Face
Recognition (FR) network fails to learn the distribution of low-quality samples
since they are less frequent during training (underrepresented). Moreover,
current state-of-the-art FR training paradigms are based on the
sample-to-center comparison (i.e., Softmax-based classifier), which results in
a lack of uniformity between train and test metrics. This work integrates a
quality-aware learning process at the sample level into the classification
training paradigm (QAFace). In this regard, Softmax centers are adaptively
guided to pay more attention to low-quality samples by using a quality-aware
function. Accordingly, QAFace adds a quality-based adjustment to the updating
procedure of the Softmax-based classifier to improve the performance on the
underrepresented low-quality samples. Our method adaptively finds and assigns
more attention to the recognizable low-quality samples in the training
datasets. In addition, QAFace ignores the unrecognizable low-quality samples
using the feature magnitude as a proxy for quality. As a result, QAFace
prevents class centers from getting distracted from the optimal direction. The
proposed method is superior to the state-of-the-art algorithms in extensive
experimental results on the CFP-FP, LFW, CPLFW, CALFW, AgeDB, IJB-B, and IJB-C
datasets.
- Abstract(参考訳): 現在利用可能な顔データセットは主に多数の高品質のサンプルと少数の低品質のサンプルで構成されている。
その結果、顔認識(FR)ネットワークは、トレーニング中の頻度が低いため、低品質なサンプルの分布を学習することができない(表現できない)。
さらに、現在最先端のfrトレーニングパラダイムは、サンプル対センター比較(すなわちsoftmaxベースの分類器)に基づいており、トレーニングメトリクスとテストメトリクスの均一性が欠如している。
この研究は、品質を意識した学習プロセスをサンプルレベルで分類訓練パラダイム(QAFace)に統合する。
この場合、ソフトマックスセンターは、品質認識機能を用いて、低品質のサンプルにより多くの注意を払うよう適応的に誘導される。
そのため、QAFaceは、Softmaxベースの分類器の更新手順に品質ベースの調整を加え、低品質サンプルの性能を改善する。
本手法は,トレーニングデータセットの認識可能な低品質サンプルに適応的に注目する。
さらにQAFaceは、品質のプロキシとして機能の大きさを使って、認識できない低品質のサンプルを無視している。
その結果、QAFaceはクラスセンターが最適方向から邪魔されるのを防ぐ。
提案手法はCFP-FP, LFW, CPLFW, CALFW, AgeDB, IJB-B, IJB-Cデータセットに対する実験結果において, 最先端のアルゴリズムよりも優れている。
関連論文リスト
- Adaptive Image Quality Assessment via Teaching Large Multimodal Model to Compare [99.57567498494448]
我々はLMMに基づくノン参照IQAモデルであるCompare2Scoreを紹介する。
トレーニング中、同じIQAデータセットの画像を比較することで、スケールアップ比較命令を生成する。
9つのIQAデータセットの実験により、Compare2Scoreは、トレーニング中にテキスト定義の比較レベルを効果的にブリッジすることを確認した。
論文 参考訳(メタデータ) (2024-05-29T17:26:09Z) - Mashee at SemEval-2024 Task 8: The Impact of Samples Quality on the Performance of In-Context Learning for Machine Text Classification [0.0]
我々は,高品質試料を同定するために2乗検定を用い,低品質試料を用いて得られた試料と比較した。
これらの結果から, 高品質な試料の利用により, 評価指標のすべてに対して, 性能が向上することが示唆された。
論文 参考訳(メタデータ) (2024-05-28T12:47:43Z) - GraFIQs: Face Image Quality Assessment Using Gradient Magnitudes [9.170455788675836]
顔画像品質評価(FIQA)は、顔認識(FR)システムにおける顔画像の有用性を推定する。
本研究では,事前学習したFRモデルの重量変化を検査し,顔画像の品質を評価する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-04-18T14:07:08Z) - Contrastive Pre-Training with Multi-View Fusion for No-Reference Point Cloud Quality Assessment [49.36799270585947]
No-Reference Point Cloud Quality Assessment (NR-PCQA) は、歪んだ点雲の知覚的品質を、参照なしで自動的に評価することを目的としている。
我々は,PCQA(CoPA)に適した新しいコントラスト付き事前学習フレームワークを提案する。
提案手法は,最新のPCQA手法よりも高い性能を示す。
論文 参考訳(メタデータ) (2024-03-15T07:16:07Z) - Deep Boosting Multi-Modal Ensemble Face Recognition with Sample-Level
Weighting [11.39204323420108]
深層畳み込みニューラルネットワークは顔認識において顕著な成功を収めた。
現在のトレーニングベンチマークは、不均衡な品質分布を示している。
これは、訓練中に不足しているため、ハードサンプルの一般化に問題を引き起こす。
有名なAdaBoostにインスパイアされた本研究では、FR損失に異なるサンプルの重要性を組み込むためのサンプルレベルの重み付け手法を提案する。
論文 参考訳(メタデータ) (2023-08-18T01:44:54Z) - Test Time Adaptation for Blind Image Quality Assessment [20.50795362928567]
本報告では, ブラインドIQAにおけるTTAを実現するために, バッチとサンプルレベルに2つの新しい品質関連補助タスクを導入する。
実験の結果,テスト分布から少量の画像を使用しても,性能の大幅な向上が期待できることがわかった。
論文 参考訳(メタデータ) (2023-07-27T09:43:06Z) - Towards Automated Imbalanced Learning with Deep Hierarchical
Reinforcement Learning [57.163525407022966]
不均衡学習はデータマイニングにおいて基本的な課題であり、各クラスにトレーニングサンプルの不均等な比率が存在する。
オーバーサンプリングは、少数民族のための合成サンプルを生成することによって、不均衡な学習に取り組む効果的な手法である。
我々は,異なるレベルの意思決定を共同で最適化できる自動オーバーサンプリングアルゴリズムであるAutoSMOTEを提案する。
論文 参考訳(メタデータ) (2022-08-26T04:28:01Z) - AdaFace: Quality Adaptive Margin for Face Recognition [56.99208144386127]
本稿では、損失関数、すなわち画像品質における適応性の別の側面を紹介する。
そこで本稿では,画像品質に基づいて異なる難易度を示す新たな損失関数を提案する。
提案手法は,4つのデータセット上でのSoTA(State-of-the-art)による顔認識性能を向上させる。
論文 参考訳(メタデータ) (2022-04-03T01:23:41Z) - CR-FIQA: Face Image Quality Assessment by Learning Sample Relative
Classifiability [2.3624125155742055]
本稿では,学習過程における内部ネットワーク観測を学習する新しい学習パラダイムを提案する。
提案するCR-FIQAは,このパラダイムを用いて,サンプルの顔画像品質を,その相対的分類可能性の予測により推定する。
本研究では, 最先端(SOTA) FIQAアルゴリズムよりもCR-FIQAの方が優れていることを示す。
論文 参考訳(メタデータ) (2021-12-13T12:18:43Z) - Learning Transformer Features for Image Quality Assessment [53.51379676690971]
本稿では,CNNバックボーンとトランスフォーマーエンコーダを用いて特徴抽出を行うIQAフレームワークを提案する。
提案するフレームワークはFRモードとNRモードの両方と互換性があり、共同トレーニング方式が可能である。
論文 参考訳(メタデータ) (2021-12-01T13:23:00Z) - Task-Specific Normalization for Continual Learning of Blind Image
Quality Models [105.03239956378465]
視覚的画像品質評価(BIQA)のための簡易かつ効果的な連続学習法を提案する。
このアプローチの重要なステップは、トレーニング済みのディープニューラルネットワーク(DNN)のすべての畳み込みフィルタを凍結して、安定性を明示的に保証することです。
我々は、各新しいIQAデータセット(タスク)に予測ヘッドを割り当て、対応する正規化パラメータをロードして品質スコアを生成する。
最終的な品質推定は、軽量な$K$-meansゲーティング機構で、すべての頭からの予測の重み付け総和によって計算される。
論文 参考訳(メタデータ) (2021-07-28T15:21:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。