論文の概要: Generalized Visual Quality Assessment of GAN-Generated Face Images
- arxiv url: http://arxiv.org/abs/2201.11975v1
- Date: Fri, 28 Jan 2022 07:54:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-31 16:11:43.662019
- Title: Generalized Visual Quality Assessment of GAN-Generated Face Images
- Title(参考訳): GAN生成顔画像の一般視品質評価
- Authors: Yu Tian and Zhangkai Ni and Baoliang Chen and Shiqi Wang and Hanli
Wang and Sam Kwong
- Abstract要約: GAN生成顔画像(GFI)の汎用品質評価に向けた主観的・客観的品質の検討
我々は、利用可能なGANアルゴリズムと見えないGANアルゴリズムの両方から、GFIの正確な品質予測を可能にする品質評価モデルを開発する。
- 参考スコア(独自算出の注目度): 79.47386781978531
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent years have witnessed the dramatically increased interest in face
generation with generative adversarial networks (GANs). A number of successful
GAN algorithms have been developed to produce vivid face images towards
different application scenarios. However, little work has been dedicated to
automatic quality assessment of such GAN-generated face images (GFIs), even
less have been devoted to generalized and robust quality assessment of GFIs
generated with unseen GAN model. Herein, we make the first attempt to study the
subjective and objective quality towards generalized quality assessment of
GFIs. More specifically, we establish a large-scale database consisting of GFIs
from four GAN algorithms, the pseudo labels from image quality assessment (IQA)
measures, as well as the human opinion scores via subjective testing.
Subsequently, we develop a quality assessment model that is able to deliver
accurate quality predictions for GFIs from both available and unseen GAN
algorithms based on meta-learning. In particular, to learn shared knowledge
from GFIs pairs that are born of limited GAN algorithms, we develop the
convolutional block attention (CBA) and facial attributes-based analysis (ABA)
modules, ensuring that the learned knowledge tends to be consistent with human
visual perception. Extensive experiments exhibit that the proposed model
achieves better performance compared with the state-of-the-art IQA models, and
is capable of retaining the effectiveness when evaluating GFIs from the unseen
GAN algorithms.
- Abstract(参考訳): 近年では、gans(generative adversarial networks)による顔生成への関心が劇的に高まっている。
異なるアプリケーションシナリオに対して鮮明な顔画像を生成するために、多くのganアルゴリズムが開発されている。
しかし、そのようなGAN生成顔画像(GFI)の自動品質評価にはほとんど貢献していないが、GANモデルで生成されたGFIの一般化と堅牢な品質評価にはほとんど貢献していない。
本稿では, GFIの汎用品質評価に向けて, 主観的, 客観的品質を研究するための最初の試みを行う。
具体的には、4つのGANアルゴリズムのGFI、画像品質評価(IQA)尺度の擬似ラベル、および主観的テストによる人間の意見スコアからなる大規模データベースを構築した。
その後,メタラーニングに基づくGANアルゴリズムを用いて,GFIの正確な品質予測を行うことができる品質評価モデルを開発した。
特に、限られたGANアルゴリズムから生まれるGFIのペアから共有知識を学習するために、畳み込みブロック注意(CBA)と顔属性に基づく分析(ABA)モジュールを開発し、学習知識が人間の視覚的知覚と一致することを保証する。
大規模実験により,提案モデルは最先端のIQAモデルと比較して性能が向上し,未知のGANアルゴリズムからGFIを評価する際の有効性を維持することができることがわかった。
関連論文リスト
- Opinion-Unaware Blind Image Quality Assessment using Multi-Scale Deep Feature Statistics [54.08757792080732]
我々は,事前学習された視覚モデルからの深い特徴を統計的解析モデルと統合して,意見認識のないBIQA(OU-BIQA)を実現することを提案する。
提案モデルは,最先端のBIQAモデルと比較して,人間の視覚的知覚との整合性に優れる。
論文 参考訳(メタデータ) (2024-05-29T06:09:34Z) - Understanding and Evaluating Human Preferences for AI Generated Images with Instruction Tuning [58.41087653543607]
我々はまず,AIGCIQA2023+と呼ばれるAIGIのための画像品質評価(IQA)データベースを構築した。
本稿では,AIGIに対する人間の嗜好を評価するためのMINT-IQAモデルを提案する。
論文 参考訳(メタデータ) (2024-05-12T17:45:11Z) - G-Refine: A General Quality Refiner for Text-to-Image Generation [74.16137826891827]
G-Refineは,高画質画像の整合性を損なうことなく,低画質画像の高精細化を図った汎用画像精細機である。
このモデルは、知覚品質指標、アライメント品質指標、一般的な品質向上モジュールの3つの相互接続モジュールで構成されている。
大規模な実験により、G-Refine以降のAIGIは、4つのデータベースで10以上の品質指標でパフォーマンスが向上していることが明らかになった。
論文 参考訳(メタデータ) (2024-04-29T00:54:38Z) - AGIQA-3K: An Open Database for AI-Generated Image Quality Assessment [62.8834581626703]
我々はこれまでに最も包括的な主観的品質データベース AGIQA-3K を構築している。
このデータベース上でベンチマーク実験を行い、現在の画像品質評価(IQA)モデルと人間の知覚との整合性を評価する。
我々は、AGIQA-3Kの微粒な主観的スコアが、その後のAGI品質モデルにヒトの主観的知覚機構に適合するよう促すと信じている。
論文 参考訳(メタデータ) (2023-06-07T18:28:21Z) - Compound Frechet Inception Distance for Quality Assessment of GAN
Created Images [7.628527132779575]
GANの注目すべき応用の1つは、ディープフェイク(deep fakes)として知られる偽の人間の顔を開発することである。
生成された画像の品質を測定することは本質的に主観的だが、標準化されたメトリクスを使って品質を客観化しようとする試みがなされている。
我々は,より広い視覚的欠陥をカバーするために,低レベルの特徴を統合することにより,評価プロセスの堅牢性を向上させることを提案する。
論文 参考訳(メタデータ) (2021-06-16T06:53:27Z) - Deep Tiny Network for Recognition-Oriented Face Image Quality Assessment [26.792481400792376]
多くの顔認識(FR)のシナリオでは、顔画像は大きな変分を含むシーケンスから取得される。
本稿では、画像品質評価(IQA)とFRを直接リンクするFRの非参照画像品質評価を行う。
提案した品質測定に基づいて,データから品質予測関数を学習する深層顔品質ネットワーク(tinyFQnet)を提案する。
論文 参考訳(メタデータ) (2021-06-09T07:20:54Z) - Uncertainty-Aware Blind Image Quality Assessment in the Laboratory and
Wild [98.48284827503409]
我々は,テキスト化BIQAモデルを開発し,それを合成的および現実的歪みの両方で訓練するアプローチを提案する。
我々は、多数の画像ペアに対してBIQAのためのディープニューラルネットワークを最適化するために、忠実度損失を用いる。
6つのIQAデータベースの実験は、実験室と野生動物における画像品質を盲目的に評価する学習手法の可能性を示唆している。
論文 参考訳(メタデータ) (2020-05-28T13:35:23Z) - GIQA: Generated Image Quality Assessment [36.01759301994946]
現在、GAN(Generative Adversarial Network)は印象的な成果を上げているが、すべての生成した画像が完璧ではない。
本稿では,生成画像の品質を定量的に評価する生成画像品質評価(GIQA)を提案する。
論文 参考訳(メタデータ) (2020-03-19T17:56:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。