論文の概要: Going the Extra Mile in Face Image Quality Assessment: A Novel Database
and Model
- arxiv url: http://arxiv.org/abs/2207.04904v1
- Date: Mon, 11 Jul 2022 14:28:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-12 17:51:44.282570
- Title: Going the Extra Mile in Face Image Quality Assessment: A Novel Database
and Model
- Title(参考訳): 顔画像品質評価における余分なミス:新しいデータベースとモデル
- Authors: Shaolin Su, Hanhe Lin, Vlad Hosu, Oliver Wiedemann, Jinqiu Sun, Yu
Zhu, Hantao Liu, Yanning Zhang, Dietmar Saupe
- Abstract要約: 現在までに2万の顔を含む最大のアノテートIQAデータベースを導入している。
本稿では,主観的な顔の質を予測するために,生成前の特徴を再現する新しいディープラーニングモデルを提案する。
実験の結果,顔IQAタスクにおいて提案したモデルの予測精度が優れていることが示された。
- 参考スコア(独自算出の注目度): 42.05084438912876
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Computer vision models for image quality assessment (IQA) predict the
subjective effect of generic image degradation, such as artefacts, blurs, bad
exposure, or colors. The scarcity of face images in existing IQA datasets
(below 10\%) is limiting the precision of IQA required for accurately filtering
low-quality face images or guiding CV models for face image processing, such as
super-resolution, image enhancement, and generation. In this paper, we first
introduce the largest annotated IQA database to date that contains 20,000 human
faces (an order of magnitude larger than all existing rated datasets of faces),
of diverse individuals, in highly varied circumstances, quality levels, and
distortion types. Based on the database, we further propose a novel deep
learning model, which re-purposes generative prior features for predicting
subjective face quality. By exploiting rich statistics encoded in well-trained
generative models, we obtain generative prior information of the images and
serve them as latent references to facilitate the blind IQA task. Experimental
results demonstrate the superior prediction accuracy of the proposed model on
the face IQA task.
- Abstract(参考訳): 画像品質評価(IQA)のためのコンピュータビジョンモデルは、人工物、ぼかし、露出不良、色などの一般的な画像劣化の主観効果を予測する。
既存のIQAデータセット(10%以下)における顔画像の不足は、低品質の顔画像を正確にフィルタリングしたり、超解像度、画像強調、生成などの顔画像処理のためのCVモデルを導くのに必要なIQAの精度を制限している。
本稿では,これまでで最大の注釈付きIQAデータベースを導入し,様々な状況,品質レベル,歪みタイプにおいて,2万件の顔(既存の顔のデータセットよりも桁違いに大きい)を含む。
さらに,データベースに基づいて,主観的顔の質を予測するための生成前の特徴を再現する新しい深層学習モデルを提案する。
十分に訓練された生成モデルで符号化されたリッチな統計情報を利用することで、画像の事前情報を生成し、それを潜在参照として提供し、盲点IQA作業を容易にする。
実験の結果,提案モデルの予測精度は顔 iqa タスクにおいて良好であった。
関連論文リスト
- An Image Quality Assessment Dataset for Portraits [0.9786690381850354]
本稿では,PIQ23について紹介する。PIQ23は,100台のスマートフォンが取得した50のシナリオの5116枚の画像からなる,ポートレート固有のIQAデータセットである。
このデータセットには、さまざまな性別や民族の個人が含まれており、公開研究に使用される写真について、明確かつインフォームドな同意を与えている。
これらのアノテーションの詳細な統計解析により、PIQ23上での一貫性を評価することができる。
論文 参考訳(メタデータ) (2023-04-12T11:30:06Z) - Perceptual Attacks of No-Reference Image Quality Models with
Human-in-the-Loop [113.75573175709573]
NR-IQAモデルの知覚的堅牢性を調べるための最初の試みの1つを行う。
我々は,4つの完全参照IQAモデルの下で,知識駆動のNR-IQA法とデータ駆動のNR-IQA法を検証した。
4つのNR-IQAモデルは全て、提案した知覚的攻撃に対して脆弱であることがわかった。
論文 参考訳(メタデータ) (2022-10-03T13:47:16Z) - Conformer and Blind Noisy Students for Improved Image Quality Assessment [80.57006406834466]
知覚品質評価(IQA)のための学習ベースアプローチは、通常、知覚品質を正確に測定するために歪んだ画像と参照画像の両方を必要とする。
本研究では,変換器を用いた全参照IQAモデルの性能について検討する。
また,全教師モデルから盲人学生モデルへの半教師付き知識蒸留に基づくIQAの手法を提案する。
論文 参考訳(メタデータ) (2022-04-27T10:21:08Z) - FaceQgen: Semi-Supervised Deep Learning for Face Image Quality
Assessment [19.928262020265965]
FaceQgenは、ジェネレーティブ・アドバイサル・ネットワークに基づく顔画像の非参照品質評価手法である。
顔認識精度に関連するスカラー品質尺度を生成する。
SCfaceデータベースを使用して、スクラッチからトレーニングされる。
論文 参考訳(メタデータ) (2022-01-03T17:22:38Z) - Task-Specific Normalization for Continual Learning of Blind Image
Quality Models [105.03239956378465]
視覚的画像品質評価(BIQA)のための簡易かつ効果的な連続学習法を提案する。
このアプローチの重要なステップは、トレーニング済みのディープニューラルネットワーク(DNN)のすべての畳み込みフィルタを凍結して、安定性を明示的に保証することです。
我々は、各新しいIQAデータセット(タスク)に予測ヘッドを割り当て、対応する正規化パラメータをロードして品質スコアを生成する。
最終的な品質推定は、軽量な$K$-meansゲーティング機構で、すべての頭からの予測の重み付け総和によって計算される。
論文 参考訳(メタデータ) (2021-07-28T15:21:01Z) - Continual Learning for Blind Image Quality Assessment [80.55119990128419]
ブラインド画像品質評価(BIQA)モデルは、サブポピュレーションシフトに継続的に適応できない。
最近の研究では、利用可能なすべての人間評価のIQAデータセットの組み合わせに関するBIQAメソッドのトレーニングが推奨されている。
モデルがIQAデータセットのストリームから継続的に学習するBIQAの継続的学習を策定する。
論文 参考訳(メタデータ) (2021-02-19T03:07:01Z) - Uncertainty-Aware Blind Image Quality Assessment in the Laboratory and
Wild [98.48284827503409]
我々は,テキスト化BIQAモデルを開発し,それを合成的および現実的歪みの両方で訓練するアプローチを提案する。
我々は、多数の画像ペアに対してBIQAのためのディープニューラルネットワークを最適化するために、忠実度損失を用いる。
6つのIQAデータベースの実験は、実験室と野生動物における画像品質を盲目的に評価する学習手法の可能性を示唆している。
論文 参考訳(メタデータ) (2020-05-28T13:35:23Z) - Comparison of Image Quality Models for Optimization of Image Processing
Systems [41.57409136781606]
我々は、11のフル参照IQAモデルを使用して、4つの低レベル視覚タスクのためにディープニューラルネットワークをトレーニングします。
最適化された画像に対する主観的テストにより、それらの知覚的性能の観点から、競合するモデルのランク付けが可能となる。
論文 参考訳(メタデータ) (2020-05-04T09:26:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。