論文の概要: AGHI-QA: A Subjective-Aligned Dataset and Metric for AI-Generated Human Images
- arxiv url: http://arxiv.org/abs/2504.21308v1
- Date: Wed, 30 Apr 2025 04:36:56 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-05-02 15:56:23.36844
- Title: AGHI-QA: A Subjective-Aligned Dataset and Metric for AI-Generated Human Images
- Title(参考訳): AGHI-QA:AI生成人間画像のための主観的アラインデータセットとメトリクス
- Authors: Yunhao Li, Sijing Wu, Wei Sun, Zhichao Zhang, Yucheng Zhu, Zicheng Zhang, Huiyu Duan, Xiongkuo Min, Guangtao Zhai,
- Abstract要約: 本稿では,人体画像の品質評価のための大規模ベンチマークAGHI-QAを紹介する。
データセットは、400の慎重に作成されたテキストプロンプトから生成される4,000の画像で構成され、10の最先端のT2Iモデルを使用している。
我々は,視覚的品質スコア,テキスト画像対応スコア,可視および歪んだ身体部分ラベルを含む多次元アノテーションの収集のために,体系的な主観的研究を行う。
- 参考スコア(独自算出の注目度): 58.87047247313503
- License:
- Abstract: The rapid development of text-to-image (T2I) generation approaches has attracted extensive interest in evaluating the quality of generated images, leading to the development of various quality assessment methods for general-purpose T2I outputs. However, existing image quality assessment (IQA) methods are limited to providing global quality scores, failing to deliver fine-grained perceptual evaluations for structurally complex subjects like humans, which is a critical challenge considering the frequent anatomical and textural distortions in AI-generated human images (AGHIs). To address this gap, we introduce AGHI-QA, the first large-scale benchmark specifically designed for quality assessment of AGHIs. The dataset comprises 4,000 images generated from 400 carefully crafted text prompts using 10 state of-the-art T2I models. We conduct a systematic subjective study to collect multidimensional annotations, including perceptual quality scores, text-image correspondence scores, visible and distorted body part labels. Based on AGHI-QA, we evaluate the strengths and weaknesses of current T2I methods in generating human images from multiple dimensions. Furthermore, we propose AGHI-Assessor, a novel quality metric that integrates the large multimodal model (LMM) with domain-specific human features for precise quality prediction and identification of visible and distorted body parts in AGHIs. Extensive experimental results demonstrate that AGHI-Assessor showcases state-of-the-art performance, significantly outperforming existing IQA methods in multidimensional quality assessment and surpassing leading LMMs in detecting structural distortions in AGHIs.
- Abstract(参考訳): テキスト・ツー・イメージ(T2I)生成手法の急速な開発は、生成画像の品質評価に大きな関心を惹きつけ、汎用T2I出力の様々な品質評価手法の開発に繋がった。
しかし、既存の画像品質評価法(IQA)は、グローバルな品質スコアの提供に限られており、人間のような構造的に複雑な対象に対してきめ細かな知覚的評価が得られていない。
このギャップに対処するために,AGHIの品質評価に特化して設計された最初の大規模ベンチマークであるAGHI-QAを紹介する。
データセットは、400の慎重に作成されたテキストプロンプトから生成される4,000の画像で構成され、10の最先端のT2Iモデルを使用している。
我々は,視覚的品質スコア,テキスト画像対応スコア,可視および歪んだ身体部分ラベルを含む多次元アノテーションの収集のために,体系的な主観的研究を行う。
我々は、AGHI-QAに基づいて、複数の次元から人体画像を生成する際の現在のT2I手法の長所と短所を評価する。
さらに,大規模マルチモーダルモデル(LMM)とドメイン固有の特徴を統合した新しい品質指標AGHI-Assessorを提案する。
AGHI-Assessorは多次元品質評価において既存のIQA法を著しく上回り,AGHIの構造歪み検出において先行LMMを上回った。
関連論文リスト
- Towards Explainable Partial-AIGC Image Quality Assessment [51.42831861127991]
AI生成画像(AGI)に対する画像品質評価(IQA)に関する広範な研究にもかかわらず、ほとんどの研究は完全なAI生成出力に焦点を当てている。
我々は、説明可能な部分AIGC画像品質評価(EPAIQA)を目的とした、最初の大規模PAIデータセットを構築した。
我々の研究は、総合的なPAI品質評価のためのIQA分野における先駆的な取り組みである。
論文 参考訳(メタデータ) (2025-04-12T17:27:50Z) - D-Judge: How Far Are We? Evaluating the Discrepancies Between AI-synthesized Images and Natural Images through Multimodal Guidance [19.760989919485894]
AI-Natural Image Discrepancy accessing benchmark(textitD-Judge)を導入する。
我々は、テキスト・トゥ・イメージ(T2I)、画像・トゥ・イメージ(I2I)、テキスト・アンド・イメージ(TI2I)プロンプトを用いて、5000の自然画像と4万以上のAIGIを9つのモデルで生成したデータセットであるtextitD-ANIを構築した。
本フレームワークは, 画像品質, セマンティックアライメント, 美的魅力, 下流適用性, 人間の検証の5次元にわたる相違性を評価する。
論文 参考訳(メタデータ) (2024-12-23T15:08:08Z) - AI-generated Image Quality Assessment in Visual Communication [72.11144790293086]
AIGI-VCは、視覚コミュニケーションにおけるAI生成画像の品質評価データベースである。
データセットは、14の広告トピックと8つの感情タイプにまたがる2500のイメージで構成されている。
粗い人間の嗜好アノテーションときめ細かい嗜好記述を提供し、選好予測、解釈、推論におけるIQAメソッドの能力をベンチマークする。
論文 参考訳(メタデータ) (2024-12-20T08:47:07Z) - Q-Ground: Image Quality Grounding with Large Multi-modality Models [61.72022069880346]
Q-Groundは、大規模な視覚的品質グラウンドに取り組むための最初のフレームワークである。
Q-Groundは、大規模なマルチモダリティモデルと詳細な視覚的品質分析を組み合わせる。
コントリビューションの中心は、QGround-100Kデータセットの導入です。
論文 参考訳(メタデータ) (2024-07-24T06:42:46Z) - PKU-AIGIQA-4K: A Perceptual Quality Assessment Database for Both Text-to-Image and Image-to-Image AI-Generated Images [1.5265677582796984]
我々はPKU-AIGIQA-4Kという名前のテキスト・ツー・イメージAIGIとイメージ・ツー・イメージAIGIの両方を対象とした大規模な知覚品質評価データベースを構築した。
本研究では,非参照法NR-AIGCIQA,フル参照法FR-AIGCIQA,部分参照法PR-AIGCIQAを含む事前学習モデルに基づく3つの画像品質評価手法を提案する。
論文 参考訳(メタデータ) (2024-04-29T03:57:43Z) - G-Refine: A General Quality Refiner for Text-to-Image Generation [74.16137826891827]
G-Refineは,高画質画像の整合性を損なうことなく,低画質画像の高精細化を図った汎用画像精細機である。
このモデルは、知覚品質指標、アライメント品質指標、一般的な品質向上モジュールの3つの相互接続モジュールで構成されている。
大規模な実験により、G-Refine以降のAIGIは、4つのデータベースで10以上の品質指標でパフォーマンスが向上していることが明らかになった。
論文 参考訳(メタデータ) (2024-04-29T00:54:38Z) - AIGIQA-20K: A Large Database for AI-Generated Image Quality Assessment [54.93996119324928]
AIGIQA-20Kとして知られる2万のAIGIと420,000の主観評価を備えた、これまでで最大のAIGI主観的品質データベースを作成します。
このデータベース上でベンチマーク実験を行い、16の主流AIGI品質モデルと人間の知覚との対応性を評価する。
論文 参考訳(メタデータ) (2024-04-04T12:12:24Z) - PKU-I2IQA: An Image-to-Image Quality Assessment Database for AI
Generated Images [1.6031185986328562]
我々はPKU-I2IQAという人間の知覚に基づく画像から画像へのAIGCIQAデータベースを構築した。
本研究では,非参照画像品質評価法に基づくNR-AIGCIQAとフル参照画像品質評価法に基づくFR-AIGCIQAの2つのベンチマークモデルを提案する。
論文 参考訳(メタデータ) (2023-11-27T05:53:03Z) - A Perceptual Quality Assessment Exploration for AIGC Images [39.72512063793346]
本稿では,AGIの品質評価における技術的問題,AIアーティファクト,不自然さ,不明瞭さ,美学などの主要な評価側面について論じる。
本稿では,拡散モデルから生成される1080個のAGIからなる最初の知覚的AGI品質評価データベース AGIQA-1K について述べる。
論文 参考訳(メタデータ) (2023-03-22T14:59:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。