論文の概要: GIQA: Generated Image Quality Assessment
- arxiv url: http://arxiv.org/abs/2003.08932v3
- Date: Tue, 14 Jul 2020 09:57:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 04:51:09.703545
- Title: GIQA: Generated Image Quality Assessment
- Title(参考訳): giqa: 生成した画像品質評価
- Authors: Shuyang Gu, Jianmin Bao, Dong Chen, Fang Wen
- Abstract要約: 現在、GAN(Generative Adversarial Network)は印象的な成果を上げているが、すべての生成した画像が完璧ではない。
本稿では,生成画像の品質を定量的に評価する生成画像品質評価(GIQA)を提案する。
- 参考スコア(独自算出の注目度): 36.01759301994946
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative adversarial networks (GANs) have achieved impressive results
today, but not all generated images are perfect. A number of quantitative
criteria have recently emerged for generative model, but none of them are
designed for a single generated image. In this paper, we propose a new research
topic, Generated Image Quality Assessment (GIQA), which quantitatively
evaluates the quality of each generated image. We introduce three GIQA
algorithms from two perspectives: learning-based and data-based. We evaluate a
number of images generated by various recent GAN models on different datasets
and demonstrate that they are consistent with human assessments. Furthermore,
GIQA is available to many applications, like separately evaluating the realism
and diversity of generative models, and enabling online hard negative mining
(OHEM) in the training of GANs to improve the results.
- Abstract(参考訳): 現在、GAN(Generative Adversarial Network)は素晴らしい成果を上げているが、すべての生成画像が完璧ではない。
最近、生成モデルにいくつかの量的基準が現れたが、いずれも単一の生成画像のために設計されていない。
本稿では,各画像の品質を定量的に評価するgiqa(generate image quality assessment)という新たな研究テーマを提案する。
学習ベースとデータベースという2つの観点からGIQAアルゴリズムを導入する。
我々は、様々なデータセット上で様々なGANモデルによって生成された多数の画像を評価し、それらが人間の評価と一致していることを示す。
さらに、GIQAは、生成モデルのリアリズムと多様性を別々に評価し、GANのトレーニングにおいてオンラインのハードネガティブマイニング(OHEM)を可能にするなど、多くのアプリケーションで利用することができる。
関連論文リスト
- Opinion-Unaware Blind Image Quality Assessment using Multi-Scale Deep Feature Statistics [54.08757792080732]
我々は,事前学習された視覚モデルからの深い特徴を統計的解析モデルと統合して,意見認識のないBIQA(OU-BIQA)を実現することを提案する。
提案モデルは,最先端のBIQAモデルと比較して,人間の視覚的知覚との整合性に優れる。
論文 参考訳(メタデータ) (2024-05-29T06:09:34Z) - AGIQA-3K: An Open Database for AI-Generated Image Quality Assessment [62.8834581626703]
我々はこれまでに最も包括的な主観的品質データベース AGIQA-3K を構築している。
このデータベース上でベンチマーク実験を行い、現在の画像品質評価(IQA)モデルと人間の知覚との整合性を評価する。
我々は、AGIQA-3Kの微粒な主観的スコアが、その後のAGI品質モデルにヒトの主観的知覚機構に適合するよう促すと信じている。
論文 参考訳(メタデータ) (2023-06-07T18:28:21Z) - Conformer and Blind Noisy Students for Improved Image Quality Assessment [80.57006406834466]
知覚品質評価(IQA)のための学習ベースアプローチは、通常、知覚品質を正確に測定するために歪んだ画像と参照画像の両方を必要とする。
本研究では,変換器を用いた全参照IQAモデルの性能について検討する。
また,全教師モデルから盲人学生モデルへの半教師付き知識蒸留に基づくIQAの手法を提案する。
論文 参考訳(メタデータ) (2022-04-27T10:21:08Z) - Generalized Visual Quality Assessment of GAN-Generated Face Images [79.47386781978531]
GAN生成顔画像(GFI)の汎用品質評価に向けた主観的・客観的品質の検討
我々は、利用可能なGANアルゴリズムと見えないGANアルゴリズムの両方から、GFIの正確な品質予測を可能にする品質評価モデルを開発する。
論文 参考訳(メタデータ) (2022-01-28T07:54:49Z) - Comparison and Analysis of Image-to-Image Generative Adversarial
Networks: A Survey [0.0]
GAN(Generative Adversarial Networks)は近年,画像から画像への翻訳を行う効果的な手法を導入している。
本稿では、Pix2Px、CycleGAN、CoGAN、StarGAN、MUNIT、StarGAN2、DA-GAN、Self Attention GANの8つの画像対画像生成対応ネットワークを調査し、分析する。
これらのモデルはそれぞれ、最先端の結果を示し、画像から画像へのGANを構築するための新しいテクニックを導入した。
論文 参考訳(メタデータ) (2021-12-23T15:11:18Z) - Collaging Class-specific GANs for Semantic Image Synthesis [68.87294033259417]
本稿では,高分解能なセマンティック画像合成のための新しい手法を提案する。
1つのベースイメージジェネレータと複数のクラス固有のジェネレータで構成される。
実験により,本手法は高解像度で高品質な画像を生成することができることが示された。
論文 参考訳(メタデータ) (2021-10-08T17:46:56Z) - Compound Frechet Inception Distance for Quality Assessment of GAN
Created Images [7.628527132779575]
GANの注目すべき応用の1つは、ディープフェイク(deep fakes)として知られる偽の人間の顔を開発することである。
生成された画像の品質を測定することは本質的に主観的だが、標準化されたメトリクスを使って品質を客観化しようとする試みがなされている。
我々は,より広い視覚的欠陥をカバーするために,低レベルの特徴を統合することにより,評価プロセスの堅牢性を向上させることを提案する。
論文 参考訳(メタデータ) (2021-06-16T06:53:27Z) - Image Synthesis with Adversarial Networks: a Comprehensive Survey and
Case Studies [41.00383742615389]
GAN(Generative Adversarial Networks)は、コンピュータビジョン、医学、自然言語処理など、さまざまなアプリケーション分野で非常に成功しています。
GANは、意味的に意味のあるサンプルを合成する複雑な分布を学習するための強力なモデルである。
本調査では,現時点の高速なGANの開発状況を踏まえ,画像合成の敵モデルに関する総合的なレビューを行う。
論文 参考訳(メタデータ) (2020-12-26T13:30:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。