論文の概要: AGIQA-3K: An Open Database for AI-Generated Image Quality Assessment
- arxiv url: http://arxiv.org/abs/2306.04717v2
- Date: Mon, 12 Jun 2023 16:42:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 21:19:58.143278
- Title: AGIQA-3K: An Open Database for AI-Generated Image Quality Assessment
- Title(参考訳): AGIQA-3K:AI生成画像品質評価のためのオープンデータベース
- Authors: Chunyi Li, Zicheng Zhang, Haoning Wu, Wei Sun, Xiongkuo Min, Xiaohong
Liu, Guangtao Zhai, Weisi Lin
- Abstract要約: 我々はこれまでに最も包括的な主観的品質データベース AGIQA-3K を構築している。
このデータベース上でベンチマーク実験を行い、現在の画像品質評価(IQA)モデルと人間の知覚との整合性を評価する。
我々は、AGIQA-3Kの微粒な主観的スコアが、その後のAGI品質モデルにヒトの主観的知覚機構に適合するよう促すと信じている。
- 参考スコア(独自算出の注目度): 62.8834581626703
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: With the rapid advancements of the text-to-image generative model,
AI-generated images (AGIs) have been widely applied to entertainment,
education, social media, etc. However, considering the large quality variance
among different AGIs, there is an urgent need for quality models that are
consistent with human subjective ratings. To address this issue, we extensively
consider various popular AGI models, generated AGI through different prompts
and model parameters, and collected subjective scores at the perceptual quality
and text-to-image alignment, thus building the most comprehensive AGI
subjective quality database AGIQA-3K so far. Furthermore, we conduct a
benchmark experiment on this database to evaluate the consistency between the
current Image Quality Assessment (IQA) model and human perception, while
proposing StairReward that significantly improves the assessment performance of
subjective text-to-image alignment. We believe that the fine-grained subjective
scores in AGIQA-3K will inspire subsequent AGI quality models to fit human
subjective perception mechanisms at both perception and alignment levels and to
optimize the generation result of future AGI models. The database is released
on https://github.com/lcysyzxdxc/AGIQA-3k-Database.
- Abstract(参考訳): テキスト画像生成モデルの急速な進歩により、AI生成画像(AGI)はエンターテイメント、教育、ソーシャルメディアなどに広く応用されている。
しかし,agi間の品質のばらつきが大きいことから,人間の主観的評価と整合する品質モデルの必要性が急務である。
この問題に対処するために、様々な人気AGIモデル、異なるプロンプトとモデルパラメータを通してAGIを生成し、知覚的品質とテキスト-画像アライメントの主観的スコアを収集し、これまでで最も包括的なAGI主観的品質データベースAGIQA-3Kを構築した。
さらに,本データベース上で,現在の画質評価モデル(iqa)と人間の知覚との一貫性を評価するためのベンチマーク実験を行い,主観的テキスト対画像アライメントの評価性能を著しく向上する階段方向を提案する。
我々は、AGIQA-3Kの微粒な主観的スコアがその後のAGI品質モデルに刺激を与え、人間の主観的知覚機構を知覚レベルとアライメントレベルの両方に適合させ、将来のAGIモデルの生成結果を最適化すると考えている。
データベースはhttps://github.com/lcysyzxdxc/AGIQA-3k-Databaseで公開されている。
関連論文リスト
- PSCR: Patches Sampling-based Contrastive Regression for AIGC Image
Quality Assessment [1.1744028458220428]
本稿では,様々な画像の差を利用した表現空間の学習のためのコントラスト回帰フレームワークを提案する。
我々は、AGIQA-1K、AGIQA-3K、AIGCIQA2023を含む3つの主要なAIGCIQAデータベースについて広範な実験を行った。
その結果,提案したPSCRフレームワークの導入により,モデル性能が大幅に向上した。
論文 参考訳(メタデータ) (2023-12-10T14:18:53Z) - PKU-I2IQA: An Image-to-Image Quality Assessment Database for AI
Generated Images [1.6031185986328562]
我々はPKU-I2IQAという人間の知覚に基づく画像から画像へのAIGCIQAデータベースを構築した。
本研究では,非参照画像品質評価法に基づくNR-AIGCIQAとフル参照画像品質評価法に基づくFR-AIGCIQAの2つのベンチマークモデルを提案する。
論文 参考訳(メタデータ) (2023-11-27T05:53:03Z) - Advancing Zero-Shot Digital Human Quality Assessment through
Text-Prompted Evaluation [60.873105678086404]
SJTU-H3Dは、フルボディのデジタル人間向けに設計された主観的品質評価データベースである。
高品質なデジタル人間40人と、7種類の歪みで生成された1,120個のラベル付き歪曲した人物からなる。
論文 参考訳(メタデータ) (2023-07-06T06:55:30Z) - AIGCIQA2023: A Large-scale Image Quality Assessment Database for AI
Generated Images: from the Perspectives of Quality, Authenticity and
Correspondence [42.85549933048976]
100プロンプトを用いて6つの最先端テキスト画像生成モデルに基づいて2000以上の画像を生成する。
これらの画像に基づいて、各画像に対する人間の視覚的嗜好を3つの視点から評価する主観的な実験を行った。
構築したデータベース上で,いくつかの最先端IQAメトリクスの性能を評価するためのベンチマーク実験を行った。
論文 参考訳(メタデータ) (2023-07-01T03:30:31Z) - A Perceptual Quality Assessment Exploration for AIGC Images [39.72512063793346]
本稿では,AGIの品質評価における技術的問題,AIアーティファクト,不自然さ,不明瞭さ,美学などの主要な評価側面について論じる。
本稿では,拡散モデルから生成される1080個のAGIからなる最初の知覚的AGI品質評価データベース AGIQA-1K について述べる。
論文 参考訳(メタデータ) (2023-03-22T14:59:49Z) - Subjective and Objective Quality Assessment for in-the-Wild Computer
Graphics Images [57.02760260360728]
我々は6000のCGI(CGIQA-6k)からなる大規模CGIQAデータベースを構築した。
本稿では, 歪みと美的品質表現を両立させて, 効果的な深層学習に基づくno-reference (NR) IQAモデルを提案する。
実験の結果,提案手法は構築したCGIQA-6kデータベース上で,最先端のNR IQA法よりも優れていた。
論文 参考訳(メタデータ) (2023-03-14T16:32:24Z) - Conformer and Blind Noisy Students for Improved Image Quality Assessment [80.57006406834466]
知覚品質評価(IQA)のための学習ベースアプローチは、通常、知覚品質を正確に測定するために歪んだ画像と参照画像の両方を必要とする。
本研究では,変換器を用いた全参照IQAモデルの性能について検討する。
また,全教師モデルから盲人学生モデルへの半教師付き知識蒸留に基づくIQAの手法を提案する。
論文 参考訳(メタデータ) (2022-04-27T10:21:08Z) - Confusing Image Quality Assessment: Towards Better Augmented Reality
Experience [96.29124666702566]
我々はAR技術を仮想シーンと実シーンの重ね合わせとみなし、視覚的混乱を基本的な理論として紹介する。
ConFusing Image Quality Assessment (CFIQA)データベースが構築され、600個の参照画像と300個の歪画像とをペアに混合して生成する。
また、難解な画像品質をよりよく評価するために、CFIQAと呼ばれる客観的な計量も提案されている。
論文 参考訳(メタデータ) (2022-04-11T07:03:06Z) - Generalized Visual Quality Assessment of GAN-Generated Face Images [79.47386781978531]
GAN生成顔画像(GFI)の汎用品質評価に向けた主観的・客観的品質の検討
我々は、利用可能なGANアルゴリズムと見えないGANアルゴリズムの両方から、GFIの正確な品質予測を可能にする品質評価モデルを開発する。
論文 参考訳(メタデータ) (2022-01-28T07:54:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。