論文の概要: PSCR: Patches Sampling-based Contrastive Regression for AIGC Image
Quality Assessment
- arxiv url: http://arxiv.org/abs/2312.05897v1
- Date: Sun, 10 Dec 2023 14:18:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 18:01:59.885491
- Title: PSCR: Patches Sampling-based Contrastive Regression for AIGC Image
Quality Assessment
- Title(参考訳): PSCR:AIGC画像品質評価のためのサンプリングベースのコントラスト回帰
- Authors: Jiquan Yuan, Xinyan Cao, Linjing Cao, Jinlong Lin, and Xixin Cao
- Abstract要約: 本稿では,様々な画像の差を利用した表現空間の学習のためのコントラスト回帰フレームワークを提案する。
我々は、AGIQA-1K、AGIQA-3K、AIGCIQA2023を含む3つの主要なAIGCIQAデータベースについて広範な実験を行った。
その結果,提案したPSCRフレームワークの導入により,モデル性能が大幅に向上した。
- 参考スコア(独自算出の注目度): 1.1744028458220428
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, Artificial Intelligence Generated Content (AIGC) has gained
widespread attention beyond the computer science community. Due to various
issues arising from continuous creation of AI-generated images (AIGI), AIGC
image quality assessment (AIGCIQA), which aims to evaluate the quality of AIGIs
from human perception perspectives, has emerged as a novel topic in the field
of computer vision. However, most existing AIGCIQA methods directly regress
predicted scores from a single generated image, overlooking the inherent
differences among AIGIs and scores. Additionally, operations like resizing and
cropping may cause global geometric distortions and information loss, thus
limiting the performance of models. To address these issues, we propose a
patches sampling-based contrastive regression (PSCR) framework. We suggest
introducing a contrastive regression framework to leverage differences among
various generated images for learning a better representation space. In this
space, differences and score rankings among images can be measured by their
relative scores. By selecting exemplar AIGIs as references, we also overcome
the limitations of previous models that could not utilize reference images on
the no-reference image databases. To avoid geometric distortions and
information loss in image inputs, we further propose a patches sampling
strategy. To demonstrate the effectiveness of our proposed PSCR framework, we
conduct extensive experiments on three mainstream AIGCIQA databases including
AGIQA-1K, AGIQA-3K and AIGCIQA2023. The results show significant improvements
in model performance with the introduction of our proposed PSCR framework. Code
will be available at \url{https://github.com/jiquan123/PSCR}.
- Abstract(参考訳): 近年、AIGC(Artificial Intelligence Generated Content)はコンピュータ科学コミュニティを超えて広く注目を集めている。
AIGC画像品質評価(AIGCIQA、AIGC Image Quality Assessment)は、AIGIの連続的な生成から生じる様々な問題から、人間の知覚の観点からAIGIの品質を評価することを目的としており、コンピュータビジョン分野における新たなトピックとして浮上している。
しかし、既存のほとんどのAIGCIQAメソッドは、単一の生成された画像から予測されたスコアを直接回帰し、AIGIとスコアの固有の違いを見落としている。
さらに、リサイズやクロッピングのような操作は、大域的な幾何学的歪みや情報損失を引き起こし、モデルの性能を制限している。
これらの問題に対処するために,パッチサンプリングに基づくコントラスト回帰(PSCR)フレームワークを提案する。
より優れた表現空間を学習するために,様々な画像の差を利用したコントラスト回帰フレームワークを提案する。
この領域では、画像間の差とスコアランキングを相対スコアで測定することができる。
また,exemplar aigisを参照として選択することで,参照なし画像データベースでは参照画像が利用できない従来モデルの制限を克服した。
画像入力における幾何歪みや情報損失を回避するため,パッチサンプリング戦略を提案する。
提案するPSCRフレームワークの有効性を実証するため,AGIQA-1K, AGIQA-3K, AIGCIQA2023を含む3つの主流AIGCIQAデータベース上で広範囲に実験を行った。
その結果,提案したPSCRフレームワークの導入により,モデル性能が大幅に向上した。
コードは \url{https://github.com/jiquan123/PSCR} で入手できる。
関連論文リスト
- A Survey on All-in-One Image Restoration: Taxonomy, Evaluation and Future Trends [67.43992456058541]
画像復元(IR)とは、ノイズ、ぼかし、気象効果などの劣化を除去しながら、画像の視覚的品質を改善する過程である。
従来のIR手法は、一般的に特定の種類の劣化をターゲットとしており、複雑な歪みを伴う現実のシナリオにおいて、その効果を制限している。
オールインワン画像復元(AiOIR)パラダイムが登場し、複数の劣化タイプに順応的に対処する統一されたフレームワークを提供する。
論文 参考訳(メタデータ) (2024-10-19T11:11:09Z) - A Sanity Check for AI-generated Image Detection [49.08585395873425]
本稿では,AIによる画像検出の課題が解決されたかどうかの検査を行う。
既存の手法の一般化を定量化するために,Chameleonデータセット上で,既製のAI生成画像検出器を9つ評価した。
複数の専門家が同時に視覚的アーチファクトやノイズパターンを抽出するAI生成画像検出装置(AID)を提案する。
論文 参考訳(メタデータ) (2024-06-27T17:59:49Z) - Improving Interpretability and Robustness for the Detection of AI-Generated Images [6.116075037154215]
凍結したCLIP埋め込みに基づいて、既存の最先端AIGI検出手法を解析する。
さまざまなAIジェネレータが生成する画像が実際の画像とどのように異なるかを示す。
論文 参考訳(メタデータ) (2024-06-21T10:33:09Z) - PKU-AIGIQA-4K: A Perceptual Quality Assessment Database for Both Text-to-Image and Image-to-Image AI-Generated Images [1.5265677582796984]
我々はPKU-AIGIQA-4Kという名前のテキスト・ツー・イメージAIGIとイメージ・ツー・イメージAIGIの両方を対象とした大規模な知覚品質評価データベースを構築した。
本研究では,非参照法NR-AIGCIQA,フル参照法FR-AIGCIQA,部分参照法PR-AIGCIQAを含む事前学習モデルに基づく3つの画像品質評価手法を提案する。
論文 参考訳(メタデータ) (2024-04-29T03:57:43Z) - AIGCOIQA2024: Perceptual Quality Assessment of AI Generated Omnidirectional Images [70.42666704072964]
我々はAI生成の全方位画像IQAデータベースAIIGCOIQA2024を構築した。
3つの視点から人間の視覚的嗜好を評価するために、主観的IQA実験を行った。
我々は,データベース上での最先端IQAモデルの性能を評価するためのベンチマーク実験を行った。
論文 参考訳(メタデータ) (2024-04-01T10:08:23Z) - TIER: Text-Image Encoder-based Regression for AIGC Image Quality
Assessment [2.59079758388817]
AIGCIQAタスクでは、画像は通常、テキストプロンプトを使用して生成モデルによって生成される。
既存のAIGCIQAメソッドのほとんどは、個々の生成された画像から直接予測されたスコアを回帰する。
本稿では,テキスト画像エンコーダに基づく回帰(TIER)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-08T12:35:15Z) - PKU-I2IQA: An Image-to-Image Quality Assessment Database for AI
Generated Images [1.6031185986328562]
我々はPKU-I2IQAという人間の知覚に基づく画像から画像へのAIGCIQAデータベースを構築した。
本研究では,非参照画像品質評価法に基づくNR-AIGCIQAとフル参照画像品質評価法に基づくFR-AIGCIQAの2つのベンチマークモデルを提案する。
論文 参考訳(メタデータ) (2023-11-27T05:53:03Z) - ARNIQA: Learning Distortion Manifold for Image Quality Assessment [28.773037051085318]
No-Reference Image Quality Assessment (NR-IQA) は、高品質な参照画像を必要としない、人間の知覚に合わせて画像品質を測定する手法を開発することを目的としている。
本研究では、画像歪み多様体をモデル化し、本質的な表現を得るための自己教師型アプローチ ARNIQA を提案する。
論文 参考訳(メタデータ) (2023-10-20T17:22:25Z) - AGIQA-3K: An Open Database for AI-Generated Image Quality Assessment [62.8834581626703]
我々はこれまでに最も包括的な主観的品質データベース AGIQA-3K を構築している。
このデータベース上でベンチマーク実験を行い、現在の画像品質評価(IQA)モデルと人間の知覚との整合性を評価する。
我々は、AGIQA-3Kの微粒な主観的スコアが、その後のAGI品質モデルにヒトの主観的知覚機構に適合するよう促すと信じている。
論文 参考訳(メタデータ) (2023-06-07T18:28:21Z) - Hierarchical Similarity Learning for Aliasing Suppression Image
Super-Resolution [64.15915577164894]
エイリアスの影響を抑制するために階層画像超解像ネットワーク(HSRNet)を提案する。
HSRNetは、他の作品よりも定量的かつ視覚的なパフォーマンスを向上し、エイリアスをより効果的に再送信する。
論文 参考訳(メタデータ) (2022-06-07T14:55:32Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。