論文の概要: Toward Generalized Image Quality Assessment: Relaxing the Perfect Reference Quality Assumption
- arxiv url: http://arxiv.org/abs/2503.11221v2
- Date: Wed, 19 Mar 2025 07:26:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-20 12:00:57.197301
- Title: Toward Generalized Image Quality Assessment: Relaxing the Perfect Reference Quality Assumption
- Title(参考訳): 画像品質評価の一般化に向けて:完全な基準品質評価を緩和する
- Authors: Du Chen, Tianhe Wu, Kede Ma, Lei Zhang,
- Abstract要約: フルリファレンス画像品質評価(FR-IQA)は一般的に、参照画像が完全な品質であると仮定する。
近年の再生強調法は、原画像よりも高品質な画像を生成することができる。
実験画像の忠実度と自然度を正確に評価し、適応的に組み合わせるために、一般化されたFR-IQAモデル(Adaptive Fidelity-Naturalness Evaluator, A-FINE)を提案する。
- 参考スコア(独自算出の注目度): 21.811319260270732
- License:
- Abstract: Full-reference image quality assessment (FR-IQA) generally assumes that reference images are of perfect quality. However, this assumption is flawed due to the sensor and optical limitations of modern imaging systems. Moreover, recent generative enhancement methods are capable of producing images of higher quality than their original. All of these challenge the effectiveness and applicability of current FR-IQA models. To relax the assumption of perfect reference image quality, we build a large-scale IQA database, namely DiffIQA, containing approximately 180,000 images generated by a diffusion-based image enhancer with adjustable hyper-parameters. Each image is annotated by human subjects as either worse, similar, or better quality compared to its reference. Building on this, we present a generalized FR-IQA model, namely Adaptive Fidelity-Naturalness Evaluator (A-FINE), to accurately assess and adaptively combine the fidelity and naturalness of a test image. A-FINE aligns well with standard FR-IQA when the reference image is much more natural than the test image. We demonstrate by extensive experiments that A-FINE surpasses standard FR-IQA models on well-established IQA datasets and our newly created DiffIQA. To further validate A-FINE, we additionally construct a super-resolution IQA benchmark (SRIQA-Bench), encompassing test images derived from ten state-of-the-art SR methods with reliable human quality annotations. Tests on SRIQA-Bench re-affirm the advantages of A-FINE. The code and dataset are available at https://tianhewu.github.io/A-FINE-page.github.io/.
- Abstract(参考訳): フルリファレンス画像品質評価(FR-IQA)は一般的に、参照画像が完全な品質であると仮定する。
しかし、この仮定は現代のイメージングシステムのセンサーと光学的限界のために欠陥がある。
また、近年の再生強調法は、原画像よりも高品質の画像を生成することができる。
これらはすべて、現在のFR-IQAモデルの有効性と適用性に挑戦している。
完全な参照画像品質の仮定を緩和するため,拡散型画像強調器が生成する約180,000個の画像を含む大規模IQAデータベースDiffIQAを構築した。
各画像は人によって、基準よりも悪い、似ている、あるいは良い品質として注釈付けされる。
そこで本研究では, FR-IQAモデル, A-FINE(Adaptive Fidelity-Naturalness Evaluator)を提案する。
A-FINEは、基準画像がテスト画像よりもはるかに自然である場合、標準のFR-IQAとよく一致する。
我々は、A-FINEが確立されたIQAデータセットと新たに作成したDiffIQAの標準FR-IQAモデルを上回ることを広範囲にわたる実験によって実証した。
A-FINEをさらに検証するために、信頼性の高い人間の品質アノテーションを持つ10の最先端SR手法から得られたテスト画像を含む超高分解能IQAベンチマーク(SRIQA-Bench)を構築した。
SRIQA-Benchの実験はA-FINEの利点を再確認した。
コードとデータセットはhttps://tianhewu.github.io/A-FINE-page.github.io/で公開されている。
関連論文リスト
- IQA-Adapter: Exploring Knowledge Transfer from Image Quality Assessment to Diffusion-based Generative Models [0.5356944479760104]
本稿では,画像と品質スコアの関係を学習することで,目標品質レベルの生成を条件付ける新しいアーキテクチャであるIQA-Adapterを紹介する。
IQA-Adapterは、主観的な研究によって確認されたように、複数の客観的指標に対して最大10%の改善が達成される。
我々の品質認識手法はまた、IQAモデルの対角的堅牢性に関する洞察を提供する。
論文 参考訳(メタデータ) (2024-12-02T18:40:19Z) - DP-IQA: Utilizing Diffusion Prior for Blind Image Quality Assessment in the Wild [54.139923409101044]
野生のブラインド画像品質評価(IQA)は重大な課題を呈している。
大規模なトレーニングデータの収集が困難であることを考えると、厳密な一般化モデルを開発するために限られたデータを活用することは、未解決の問題である。
事前訓練されたテキスト・ツー・イメージ(T2I)拡散モデルの堅牢な画像認識能力により,新しいIQA法,拡散先行に基づくIQAを提案する。
論文 参考訳(メタデータ) (2024-05-30T12:32:35Z) - Cross-IQA: Unsupervised Learning for Image Quality Assessment [3.2287957986061038]
本稿では,視覚変換器(ViT)モデルに基づく非参照画像品質評価(NR-IQA)手法を提案する。
提案手法は,ラベルのない画像データから画像品質の特徴を学習することができる。
実験結果から,Cross-IQAは低周波劣化情報の評価において最先端の性能が得られることが示された。
論文 参考訳(メタデータ) (2024-05-07T13:35:51Z) - Reference-Free Image Quality Metric for Degradation and Reconstruction Artifacts [2.5282283486446753]
品質要因予測器(QF)と呼ばれる基準のない品質評価ネットワークを開発する。
我々のQF予測器は7層からなる軽量で完全な畳み込みネットワークである。
JPEG圧縮画像パッチを入力としてランダムQFを受信し、対応するQFを正確に予測するように訓練する。
論文 参考訳(メタデータ) (2024-05-01T22:28:18Z) - When No-Reference Image Quality Models Meet MAP Estimation in Diffusion Latents [92.45867913876691]
非参照画像品質評価(NR-IQA)モデルは、知覚された画像品質を効果的に定量化することができる。
NR-IQAモデルは、画像強調のための最大後部推定(MAP)フレームワークにプラグイン可能であることを示す。
論文 参考訳(メタデータ) (2024-03-11T03:35:41Z) - Less is More: Learning Reference Knowledge Using No-Reference Image
Quality Assessment [58.09173822651016]
No-Reference Image Quality Assessment 設定で参照知識を学習することは可能であると論じる。
非整列参照画像から比較知識を学習するための新しいフレームワークを提案する。
8つの標準NR-IQAデータセットの実験は、最先端のNR-IQA法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2023-12-01T13:56:01Z) - Conformer and Blind Noisy Students for Improved Image Quality Assessment [80.57006406834466]
知覚品質評価(IQA)のための学習ベースアプローチは、通常、知覚品質を正確に測定するために歪んだ画像と参照画像の両方を必要とする。
本研究では,変換器を用いた全参照IQAモデルの性能について検討する。
また,全教師モデルから盲人学生モデルへの半教師付き知識蒸留に基づくIQAの手法を提案する。
論文 参考訳(メタデータ) (2022-04-27T10:21:08Z) - Confusing Image Quality Assessment: Towards Better Augmented Reality
Experience [96.29124666702566]
我々はAR技術を仮想シーンと実シーンの重ね合わせとみなし、視覚的混乱を基本的な理論として紹介する。
ConFusing Image Quality Assessment (CFIQA)データベースが構築され、600個の参照画像と300個の歪画像とをペアに混合して生成する。
また、難解な画像品質をよりよく評価するために、CFIQAと呼ばれる客観的な計量も提案されている。
論文 参考訳(メタデータ) (2022-04-11T07:03:06Z) - Content-Variant Reference Image Quality Assessment via Knowledge
Distillation [35.4412922147879]
知識蒸留(CVRKD-IQA)によるコンテンツ変異参照手法を提案する。
具体的には、非整列参照(NAR)画像を用いて、高品質な画像の様々な事前分布を導入する。
我々のモデルは全てのNAR/NR-IQA SOTAを上回り、FR-IQA法と同等の性能に達することもある。
論文 参考訳(メタデータ) (2022-02-26T12:04:56Z) - Learning Transformer Features for Image Quality Assessment [53.51379676690971]
本稿では,CNNバックボーンとトランスフォーマーエンコーダを用いて特徴抽出を行うIQAフレームワークを提案する。
提案するフレームワークはFRモードとNRモードの両方と互換性があり、共同トレーニング方式が可能である。
論文 参考訳(メタデータ) (2021-12-01T13:23:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。