論文の概要: Comparison of No-Reference Image Quality Models via MAP Estimation in
Diffusion Latents
- arxiv url: http://arxiv.org/abs/2403.06406v1
- Date: Mon, 11 Mar 2024 03:35:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-12 20:19:57.845713
- Title: Comparison of No-Reference Image Quality Models via MAP Estimation in
Diffusion Latents
- Title(参考訳): 拡散潜時マップ推定による非参照画像品質モデルの比較
- Authors: Weixia Zhang and Dingquan Li and Guangtao Zhai and Xiaokang Yang and
Kede Ma
- Abstract要約: NR-IQAモデルは、画像強調のための最大後部推定(MAP)フレームワークにプラグイン可能であることを示す。
異なるNR-IQAモデルは異なる拡張イメージを誘導し、最終的には精神物理学的なテストを受ける。
これにより, NR-IQAモデルの比較を行う新たな計算手法が提案される。
- 参考スコア(独自算出の注目度): 99.19391983670569
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Contemporary no-reference image quality assessment (NR-IQA) models can
effectively quantify the perceived image quality, with high correlations
between model predictions and human perceptual scores on fixed test sets.
However, little progress has been made in comparing NR-IQA models from a
perceptual optimization perspective. Here, for the first time, we demonstrate
that NR-IQA models can be plugged into the maximum a posteriori (MAP)
estimation framework for image enhancement. This is achieved by taking the
gradients in differentiable and bijective diffusion latents rather than in the
raw pixel domain. Different NR-IQA models are likely to induce different
enhanced images, which are ultimately subject to psychophysical testing. This
leads to a new computational method for comparing NR-IQA models within the
analysis-by-synthesis framework. Compared to conventional correlation-based
metrics, our method provides complementary insights into the relative strengths
and weaknesses of the competing NR-IQA models in the context of perceptual
optimization.
- Abstract(参考訳): 現代の非参照画像品質評価(NR-IQA)モデルは、モデル予測と固定テストセット上の人間の知覚スコアとの間に高い相関関係を持ち、知覚された画像品質を効果的に定量化することができる。
しかし, NR-IQAモデルの比較は, 知覚的最適化の観点からはほとんど進展していない。
ここでは、NR-IQAモデルが初めて、画像強調のための最大アフターリ(MAP)推定フレームワークにプラグインできることを実証する。
これは、原画素領域ではなく、微分可能で単射的な拡散潜在値の勾配を取ることで達成される。
異なるNR-IQAモデルは異なる拡張イメージを誘導し、最終的には精神物理学的なテストを受ける。
これにより, NR-IQAモデルの比較を行う新たな計算手法が提案される。
従来の相関ベースメトリクスと比較して,nr-iqaモデルの相対的強みと弱みを知覚的最適化の文脈で補足的な洞察を与える。
関連論文リスト
- Sliced Maximal Information Coefficient: A Training-Free Approach for Image Quality Assessment Enhancement [12.628718661568048]
我々は,人間の品質評価の過程を模倣する,一般化された視覚的注意度推定戦略を検討することを目的とする。
特に、劣化画像と参照画像の統計的依存性を測定することによって、人間の注意生成をモデル化する。
既存のIQAモデルのアテンションモジュールを組み込んだ場合、既存のIQAモデルの性能を一貫して改善できることを示す実験結果が得られた。
論文 参考訳(メタデータ) (2024-08-19T11:55:32Z) - Adaptive Image Quality Assessment via Teaching Large Multimodal Model to Compare [99.57567498494448]
我々はLMMに基づくノン参照IQAモデルであるCompare2Scoreを紹介する。
トレーニング中、同じIQAデータセットの画像を比較することで、スケールアップ比較命令を生成する。
9つのIQAデータセットの実験により、Compare2Scoreは、トレーニング中にテキスト定義の比較レベルを効果的にブリッジすることを確認した。
論文 参考訳(メタデータ) (2024-05-29T17:26:09Z) - Opinion-Unaware Blind Image Quality Assessment using Multi-Scale Deep Feature Statistics [54.08757792080732]
我々は,事前学習された視覚モデルからの深い特徴を統計的解析モデルと統合して,意見認識のないBIQA(OU-BIQA)を実現することを提案する。
提案モデルは,最先端のBIQAモデルと比較して,人間の視覚的知覚との整合性に優れる。
論文 参考訳(メタデータ) (2024-05-29T06:09:34Z) - Defense Against Adversarial Attacks on No-Reference Image Quality Models with Gradient Norm Regularization [18.95463890154886]
No-Reference Image Quality Assessment (NR-IQA)モデルは、メディア業界において重要な役割を果たす。
これらのモデルは、入力画像に知覚不能な摂動をもたらす敵攻撃に弱いことが判明した。
そこで本研究では,小さな摂動に攻撃された場合の予測スコアの安定性を向上させるための防衛手法を提案する。
論文 参考訳(メタデータ) (2024-03-18T01:11:53Z) - Pairwise Comparisons Are All You Need [22.798716660911833]
ブラインド画像品質評価(BIQA)アプローチは、様々な画像に一様に適用される一般的な品質基準に依存しているため、現実のシナリオでは不足することが多い。
本稿では、従来のBIQAの制限を回避すべく設計されたペアワイズ比較フレームワークであるPICNIQを紹介する。
PICNIQは、サイコメトリックスケーリングアルゴリズムを用いることで、対比較をジャストオブジェクタブルディファレンス(JOD)の品質スコアに変換し、画像品質の粒度と解釈可能な指標を提供する。
論文 参考訳(メタデータ) (2024-03-13T23:43:36Z) - Black-box Adversarial Attacks Against Image Quality Assessment Models [16.11900427447442]
No-Reference Image Quality Assessment (NR-IQA)の目標は、画像の知覚的品質を主観的評価に従って予測することである。
本稿では,NR-IQAモデルに対するブラックボックス攻撃を初めて検討する。
論文 参考訳(メタデータ) (2024-02-27T14:16:39Z) - Diffusion Model Based Visual Compensation Guidance and Visual Difference
Analysis for No-Reference Image Quality Assessment [82.13830107682232]
本稿では, 複雑な関係をモデル化する能力を示す, 最先端(SOTA)生成モデルを提案する。
生成した拡張画像とノイズを含む画像を利用する新しい拡散復元ネットワークを考案する。
2つの視覚評価枝は、得られた高レベル特徴情報を包括的に解析するように設計されている。
論文 参考訳(メタデータ) (2024-02-22T09:39:46Z) - Perceptual Attacks of No-Reference Image Quality Models with
Human-in-the-Loop [113.75573175709573]
NR-IQAモデルの知覚的堅牢性を調べるための最初の試みの1つを行う。
我々は,4つの完全参照IQAモデルの下で,知識駆動のNR-IQA法とデータ駆動のNR-IQA法を検証した。
4つのNR-IQAモデルは全て、提案した知覚的攻撃に対して脆弱であることがわかった。
論文 参考訳(メタデータ) (2022-10-03T13:47:16Z) - Uncertainty-Aware Blind Image Quality Assessment in the Laboratory and
Wild [98.48284827503409]
我々は,テキスト化BIQAモデルを開発し,それを合成的および現実的歪みの両方で訓練するアプローチを提案する。
我々は、多数の画像ペアに対してBIQAのためのディープニューラルネットワークを最適化するために、忠実度損失を用いる。
6つのIQAデータベースの実験は、実験室と野生動物における画像品質を盲目的に評価する学習手法の可能性を示唆している。
論文 参考訳(メタデータ) (2020-05-28T13:35:23Z) - Comparison of Image Quality Models for Optimization of Image Processing
Systems [41.57409136781606]
我々は、11のフル参照IQAモデルを使用して、4つの低レベル視覚タスクのためにディープニューラルネットワークをトレーニングします。
最適化された画像に対する主観的テストにより、それらの知覚的性能の観点から、競合するモデルのランク付けが可能となる。
論文 参考訳(メタデータ) (2020-05-04T09:26:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。