論文の概要: Global-Local Image Perceptual Score (GLIPS): Evaluating Photorealistic Quality of AI-Generated Images
- arxiv url: http://arxiv.org/abs/2405.09426v1
- Date: Wed, 15 May 2024 15:19:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-16 13:06:44.703737
- Title: Global-Local Image Perceptual Score (GLIPS): Evaluating Photorealistic Quality of AI-Generated Images
- Title(参考訳): グローバルローカル画像知覚スコア(GLIPS):AI生成画像の光写実的品質の評価
- Authors: Memoona Aziz, Umair Rehman, Muhammad Umair Danish, Katarina Grolinger,
- Abstract要約: GLIPS(Global-Local Image Perceptual Score)は、AI生成画像の写実的画像品質を評価するために設計された画像メトリクスである。
様々な生成モデルにわたる総合的なテストは、GLIPSが人間のスコアと相関する点において、FID、SSIM、MS-SSIMといった既存の指標を一貫して上回っていることを示している。
- 参考スコア(独自算出の注目度): 0.7499722271664147
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces the Global-Local Image Perceptual Score (GLIPS), an image metric designed to assess the photorealistic image quality of AI-generated images with a high degree of alignment to human visual perception. Traditional metrics such as FID and KID scores do not align closely with human evaluations. The proposed metric incorporates advanced transformer-based attention mechanisms to assess local similarity and Maximum Mean Discrepancy (MMD) to evaluate global distributional similarity. To evaluate the performance of GLIPS, we conducted a human study on photorealistic image quality. Comprehensive tests across various generative models demonstrate that GLIPS consistently outperforms existing metrics like FID, SSIM, and MS-SSIM in terms of correlation with human scores. Additionally, we introduce the Interpolative Binning Scale (IBS), a refined scaling method that enhances the interpretability of metric scores by aligning them more closely with human evaluative standards. The proposed metric and scaling approach not only provides more reliable assessments of AI-generated images but also suggest pathways for future enhancements in image generation technologies.
- Abstract(参考訳): 本稿では,人間の視覚知覚に高度に適応したAI生成画像の写実的画像品質を評価するために,GLIPS(Global-Local Image Perceptual Score)を提案する。
FIDやKIDスコアといった従来の指標は、人間の評価と密接に一致していない。
提案手法は,局所的な類似性を評価するための高度なトランスフォーマーベースアテンション機構と,グローバルな分布類似性を評価するための最大平均離散性(MMD)を組み込んだものである。
GLIPSの性能を評価するために,光実写画像の品質に関する人間による研究を行った。
様々な生成モデルにわたる総合的なテストは、GLIPSが人間のスコアと相関する点において、FID、SSIM、MS-SSIMといった既存の指標を一貫して上回っていることを示している。
さらに,人間の評価基準とより密に整合させることにより,測定値の解釈可能性を高める改良されたスケーリング手法であるInterpolative Binning Scale (IBS)を導入する。
提案したメトリックとスケーリングのアプローチは,AI生成画像の信頼性向上だけでなく,画像生成技術の今後の拡張のための経路も提案する。
関連論文リスト
- DiffuSyn Bench: Evaluating Vision-Language Models on Real-World Complexities with Diffusion-Generated Synthetic Benchmarks [0.0]
本研究では,AI生成画像と人間生成画像とを区別するLVLM(Large Vision-Language Models)の能力を評価する。
この評価のための新しい自動ベンチマーク構築手法を導入する。
論文 参考訳(メタデータ) (2024-06-06T19:50:33Z) - RIGID: A Training-free and Model-Agnostic Framework for Robust AI-Generated Image Detection [60.960988614701414]
RIGIDは、堅牢なAI生成画像検出のためのトレーニング不要でモデルに依存しない方法である。
RIGIDは、既存のトレーニングベースおよびトレーニング不要な検出器を著しく上回っている。
論文 参考訳(メタデータ) (2024-05-30T14:49:54Z) - Opinion-Unaware Blind Image Quality Assessment using Multi-Scale Deep Feature Statistics [54.08757792080732]
我々は,事前学習された視覚モデルからの深い特徴を統計的解析モデルと統合して,意見認識のないBIQA(OU-BIQA)を実現することを提案する。
提案モデルは,最先端のBIQAモデルと比較して,人間の視覚的知覚との整合性に優れる。
論文 参考訳(メタデータ) (2024-05-29T06:09:34Z) - Similarity Metrics for MR Image-To-Image Translation [0.8932296777085644]
合成画像の品質を評価するための15の指標の概要と定量的分析を行った。
11のフルリファレンスメトリクス(SSIM, MS-SSIM, CW-SSIM, PSNR, MSE, NMSE, MAE, LPIPS, DISTS, NMI, PCC)、3つの非参照メトリック(BLUR, MLC, MSLC)、1つのダウンストリームタスクセグメンテーションメトリック(DICE)を含む。
我々は,4つの顕著な正規化手法(Minmax,cMinmax,Zscore,Quantile)が,異なる測度と歪みに与える影響を解析した。
論文 参考訳(メタデータ) (2024-05-14T08:51:16Z) - GMC-IQA: Exploiting Global-correlation and Mean-opinion Consistency for
No-reference Image Quality Assessment [40.33163764161929]
我々は,グローバル相関と平均オピニオン整合性を利用する新たな損失関数とネットワークを構築した。
SROCCの微分不可能な問題を解くために、ペアワイズ選好に基づくランク推定を定義することにより、新しいGCC損失を提案する。
また,重み学習のランダム性を軽減するために,多様な意見特徴を統合した平均オピニオンネットワークを提案する。
論文 参考訳(メタデータ) (2024-01-19T06:03:01Z) - Metrics to Quantify Global Consistency in Synthetic Medical Images [6.863780677964219]
画像毎の合成画像のグローバルな一貫性を計測できる2つの指標を導入する。
我々は、教師付きニューラルネットワークを用いて、パッチ上の画像の明示的な属性を予測し、比較することにより、グローバルな一貫性を定量化する。
その結果、パッチ上の合成画像の明示的な属性を予測することは、一貫性のない画像とグローバルに一致していることが示されている。
論文 参考訳(メタデータ) (2023-08-01T09:29:39Z) - MAUVE Scores for Generative Models: Theory and Practice [95.86006777961182]
本報告では,テキストや画像の生成モデルで発生するような分布のペア間の比較尺度であるMAUVEについて述べる。
我々は、MAUVEが人間の文章の分布と現代のニューラル言語モデルとのギャップを定量化できることを発見した。
我々は、MAUVEが既存のメトリクスと同等以上の画像の既知の特性を識別できることを視覚領域で実証する。
論文 参考訳(メタデータ) (2022-12-30T07:37:40Z) - Evaluating the Quality and Diversity of DCGAN-based Generatively
Synthesized Diabetic Retinopathy Imagery [0.07499722271664144]
公的に利用可能な糖尿病網膜症(DR)データセットは不均衡であり、DRを持つ画像の数が限られている。
この不均衡に対処するには、GAN(Geneversarative Adrial Networks)を使用して、データセットを合成画像で拡張する。
合成画像の品質と多様性を評価するために、マルチスケール構造類似度指数(MS-SSIM)、コサイン距離(CD)、Fr't Inception Distance(FID)などの評価指標を用いる。
論文 参考訳(メタデータ) (2022-08-10T23:50:01Z) - Conformer and Blind Noisy Students for Improved Image Quality Assessment [80.57006406834466]
知覚品質評価(IQA)のための学習ベースアプローチは、通常、知覚品質を正確に測定するために歪んだ画像と参照画像の両方を必要とする。
本研究では,変換器を用いた全参照IQAモデルの性能について検討する。
また,全教師モデルから盲人学生モデルへの半教師付き知識蒸留に基づくIQAの手法を提案する。
論文 参考訳(メタデータ) (2022-04-27T10:21:08Z) - Generalized Visual Quality Assessment of GAN-Generated Face Images [79.47386781978531]
GAN生成顔画像(GFI)の汎用品質評価に向けた主観的・客観的品質の検討
我々は、利用可能なGANアルゴリズムと見えないGANアルゴリズムの両方から、GFIの正確な品質予測を可能にする品質評価モデルを開発する。
論文 参考訳(メタデータ) (2022-01-28T07:54:49Z) - Transparent Human Evaluation for Image Captioning [70.03979566548823]
画像キャプションモデルのためのルーリックに基づく人間評価プロトコルを開発した。
人為的キャプションは機械的キャプションよりも著しく高品質であることを示す。
この研究は、画像キャプションのためのより透明な評価プロトコルを促進することを願っている。
論文 参考訳(メタデータ) (2021-11-17T07:09:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。