論文の概要: Feature Denoising Diffusion Model for Blind Image Quality Assessment
- arxiv url: http://arxiv.org/abs/2401.11949v1
- Date: Mon, 22 Jan 2024 13:38:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-23 13:59:30.852728
- Title: Feature Denoising Diffusion Model for Blind Image Quality Assessment
- Title(参考訳): ブラインド画像品質評価のための特徴分節拡散モデル
- Authors: Xudong Li, Jingyuan Zheng, Runze Hu, Yan Zhang, Ke Li, Yunhang Shen,
Xiawu Zheng, Yutao Liu, ShengChuan Zhang, Pingyang Dai, Rongrong Ji
- Abstract要約: Blind Image Quality Assessment (BIQA) は、基準ベンチマークを使わずに、人間の知覚に合わせて画質を評価することを目的としている。
ディープラーニング BIQA の手法は、一般的に、伝達学習のための高レベルのタスクの特徴の使用に依存する。
本稿では,BIQAにおける特徴認知のための拡散モデルについて検討する。
- 参考スコア(独自算出の注目度): 58.5808754919597
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Blind Image Quality Assessment (BIQA) aims to evaluate image quality in line
with human perception, without reference benchmarks. Currently, deep learning
BIQA methods typically depend on using features from high-level tasks for
transfer learning. However, the inherent differences between BIQA and these
high-level tasks inevitably introduce noise into the quality-aware features. In
this paper, we take an initial step towards exploring the diffusion model for
feature denoising in BIQA, namely Perceptual Feature Diffusion for IQA
(PFD-IQA), which aims to remove noise from quality-aware features.
Specifically, (i) We propose a {Perceptual Prior Discovery and Aggregation
module to establish two auxiliary tasks to discover potential low-level
features in images that are used to aggregate perceptual text conditions for
the diffusion model. (ii) We propose a Perceptual Prior-based Feature
Refinement strategy, which matches noisy features to predefined denoising
trajectories and then performs exact feature denoising based on text
conditions. Extensive experiments on eight standard BIQA datasets demonstrate
the superior performance to the state-of-the-art BIQA methods, i.e., achieving
the PLCC values of 0.935 ( vs. 0.905 in KADID) and 0.922 ( vs. 0.894 in LIVEC).
- Abstract(参考訳): Blind Image Quality Assessment (BIQA) は、基準ベンチマークなしで、人間の知覚に合わせて画質を評価することを目的としている。
現在、ディープラーニングのBIQA手法は、一般的に、伝達学習のための高レベルのタスクの特徴の使用に依存している。
しかし、BIQAとこれらのハイレベルタスクの固有の違いは、品質認識機能に必然的にノイズをもたらす。
本稿では,品質認識機能からノイズを取り除くことを目的とした iqa (pfd-iqa) の知覚的特徴拡散について,biqa における特徴弁別のための拡散モデルの検討に向けて,最初の一歩を踏み出す。
具体的には
(i)拡散モデルのための知覚テキスト条件を集約するために使用される画像の潜在的な低レベル特徴を発見するための2つの補助的タスクを確立するために, {Perceptual Prior Discovery and Aggregationモジュールを提案する。
(ii) 雑音特徴量と予め定義された特徴量とをマッチングし, テキスト条件に基づいて正確な特徴量推定を行う知覚的前置型特徴改善戦略を提案する。
8つの標準BIQAデータセットに対する大規模な実験は、最先端のBIQA手法、すなわち、PLCC値が0.935(KADIDでは0.905)と0.922(LIVECでは0.894)であることを示す。
関連論文リスト
- Diffusion Model Based Visual Compensation Guidance and Visual Difference
Analysis for No-Reference Image Quality Assessment [82.13830107682232]
本稿では, 複雑な関係をモデル化する能力を示す, 最先端(SOTA)生成モデルを提案する。
生成した拡張画像とノイズを含む画像を利用する新しい拡散復元ネットワークを考案する。
2つの視覚評価枝は、得られた高レベル特徴情報を包括的に解析するように設計されている。
論文 参考訳(メタデータ) (2024-02-22T09:39:46Z) - Adaptive Feature Selection for No-Reference Image Quality Assessment
using Contrastive Mitigating Semantic Noise Sensitivity [55.22876742378396]
本稿では,上流タスクから有害な特徴を取り除くために,コントラスト学習を利用する品質認識特徴マッチングIQA指標を提案する。
提案手法は,8つの標準NR-IQAデータセット上での最先端NR-IQA法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2023-12-11T06:50:27Z) - Learning Generalizable Perceptual Representations for Data-Efficient
No-Reference Image Quality Assessment [7.291687946822539]
最先端のNR-IQA技術の大きな欠点は、多数の人間のアノテーションに依存していることである。
低レベルな特徴の学習を、新しい品質に配慮したコントラスト損失を導入することで、歪みタイプの学習を可能にする。
両経路からゼロショット品質の予測を、完全に盲目な環境で設計する。
論文 参考訳(メタデータ) (2023-12-08T05:24:21Z) - Less is More: Learning Reference Knowledge Using No-Reference Image
Quality Assessment [58.09173822651016]
No-Reference Image Quality Assessment 設定で参照知識を学習することは可能であると論じる。
非整列参照画像から比較知識を学習するための新しいフレームワークを提案する。
8つの標準NR-IQAデータセットの実験は、最先端のNR-IQA法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2023-12-01T13:56:01Z) - Data-Efficient Image Quality Assessment with Attention-Panel Decoder [19.987556370430806]
ブラインド画像品質評価(BIQA)はコンピュータビジョンの基本課題であり、複雑な歪み条件と多様な画像内容のために未解決のままである。
本稿では,トランスフォーマーアーキテクチャに基づく新しいBIQAパイプラインを提案する。
論文 参考訳(メタデータ) (2023-04-11T03:52:17Z) - No-Reference Image Quality Assessment by Hallucinating Pristine Features [24.35220427707458]
本稿では,特徴レベルの擬似参照(PR)幻覚を用いた非参照画像品質評価(IQA)手法を提案する。
提案手法の有効性を4つのIQAデータベースで実証した。
論文 参考訳(メタデータ) (2021-08-09T16:48:34Z) - Task-Specific Normalization for Continual Learning of Blind Image
Quality Models [105.03239956378465]
視覚的画像品質評価(BIQA)のための簡易かつ効果的な連続学習法を提案する。
このアプローチの重要なステップは、トレーニング済みのディープニューラルネットワーク(DNN)のすべての畳み込みフィルタを凍結して、安定性を明示的に保証することです。
我々は、各新しいIQAデータセット(タスク)に予測ヘッドを割り当て、対応する正規化パラメータをロードして品質スコアを生成する。
最終的な品質推定は、軽量な$K$-meansゲーティング機構で、すべての頭からの予測の重み付け総和によって計算される。
論文 参考訳(メタデータ) (2021-07-28T15:21:01Z) - No-Reference Image Quality Assessment via Feature Fusion and Multi-Task
Learning [29.19484863898778]
ブラインドまたはノン参照画像品質評価(NR-IQA)は基本的な問題であり、未解決であり、難しい問題である。
マルチタスク学習に基づく簡易かつ効果的な汎用的ノンリフレクション(NR)画像品質評価フレームワークを提案する。
このモデルでは、歪み型と主観的な人間のスコアを用いて画質を推定する。
論文 参考訳(メタデータ) (2020-06-06T05:04:10Z) - Uncertainty-Aware Blind Image Quality Assessment in the Laboratory and
Wild [98.48284827503409]
我々は,テキスト化BIQAモデルを開発し,それを合成的および現実的歪みの両方で訓練するアプローチを提案する。
我々は、多数の画像ペアに対してBIQAのためのディープニューラルネットワークを最適化するために、忠実度損失を用いる。
6つのIQAデータベースの実験は、実験室と野生動物における画像品質を盲目的に評価する学習手法の可能性を示唆している。
論文 参考訳(メタデータ) (2020-05-28T13:35:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。