論文の概要: Deep Shape-Texture Statistics for Completely Blind Image Quality
Evaluation
- arxiv url: http://arxiv.org/abs/2401.08107v1
- Date: Tue, 16 Jan 2024 04:28:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 14:59:20.662630
- Title: Deep Shape-Texture Statistics for Completely Blind Image Quality
Evaluation
- Title(参考訳): ブラインド画像品質評価のための深部形状テクスチャ統計
- Authors: Yixuan Li, Peilin Chen, Hanwei Zhu, Keyan Ding, Leida Li, and Shiqi
Wang
- Abstract要約: 視覚ディスクリプタとしての深い特徴は、最近の研究でIQAを進化させたが、それらはテクスチャバイアスが高く、形状バイアスが欠如していることが判明した。
画像の形状やテクスチャの手がかりは歪みに対して異なる反応を示し,どちらも不完全な画像表現をもたらすことがわかった。
画像の詳細な統計的記述を定式化するために,Deep Neural Networks (DNN) が生成する形状バイアスとテクスチャバイアスの深い特徴を同時に利用した。
- 参考スコア(独自算出の注目度): 48.278380421089764
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Opinion-Unaware Blind Image Quality Assessment (OU-BIQA) models aim to
predict image quality without training on reference images and subjective
quality scores. Thereinto, image statistical comparison is a classic paradigm,
while the performance is limited by the representation ability of visual
descriptors. Deep features as visual descriptors have advanced IQA in recent
research, but they are discovered to be highly texture-biased and lack of
shape-bias. On this basis, we find out that image shape and texture cues
respond differently towards distortions, and the absence of either one results
in an incomplete image representation. Therefore, to formulate a well-round
statistical description for images, we utilize the shapebiased and
texture-biased deep features produced by Deep Neural Networks (DNNs)
simultaneously. More specifically, we design a Shape-Texture Adaptive Fusion
(STAF) module to merge shape and texture information, based on which we
formulate qualityrelevant image statistics. The perceptual quality is
quantified by the variant Mahalanobis Distance between the inner and outer
Shape-Texture Statistics (DSTS), wherein the inner and outer statistics
respectively describe the quality fingerprints of the distorted image and
natural images. The proposed DSTS delicately utilizes shape-texture statistical
relations between different data scales in the deep domain, and achieves
state-of-the-art (SOTA) quality prediction performance on images with
artificial and authentic distortions.
- Abstract(参考訳): 評価モデル(ou-biqa)は、基準画像や主観的品質スコアを訓練することなく、画像品質を予測することを目的としている。
画像の統計的比較は古典的なパラダイムであり、視覚ディスクリプタの表現能力によって性能が制限される。
視覚ディスクリプタとしての深い特徴は、最近の研究でIQAを進化させたが、それらはテクスチャバイアスが高く、形状バイアスが欠如していることが判明した。
この結果から,画像形状やテクスチャの手がかりが歪みに対して異なる反応を示し,両者の欠如が不完全な画像表現をもたらすことがわかった。
そこで,画像の詳細な統計的記述を定式化するために,深層ニューラルネットワーク(dnn)が生成する形状バイアスとテクスチャバイアスの深い特徴を同時に利用する。
具体的には, 形状情報とテクスチャ情報を融合する形状適応融合 (STAF) モジュールを設計し, 品質関連画像統計を定式化する。
内面と外面の形状・テクスチュア統計(DSTS)の変種Mahalanobis Distanceにより知覚品質を定量化し、内面と外面の統計では、歪んだ画像と自然画像の良質な指紋をそれぞれ記述する。
提案したDSTSは,深部領域における異なるデータスケール間の形状・テクスチャの統計的関係を微妙に利用し,人工歪みのある画像に対して,最先端(SOTA)品質予測性能を実現する。
関連論文リスト
- On quantifying and improving realism of images generated with diffusion [50.37578424163951]
与えられた画像の5つの統計的測度から算出した画像リアリズムスコア(IRS)と呼ばれるメトリクスを提案する。
IRSは、与えられた画像を実または偽のものとして分類する手段として容易に利用できる。
我々は,安定拡散モデル (SDM) , Dalle2, Midjourney, BigGAN による偽画像の検出に成功して,提案したIRSのモデルおよびデータに依存しない性質を実験的に確立した。
このデータセットは、高品質の4つのモデルによって生成される100のクラスに対して1,000のサンプルを提供します。
論文 参考訳(メタデータ) (2023-09-26T08:32:55Z) - Training-free Diffusion Model Adaptation for Variable-Sized
Text-to-Image Synthesis [45.19847146506007]
拡散モデル(DM)は近年,テキスト・画像合成における最先端性能に注目されている。
本稿では,視覚的忠実度を維持しながら多彩性を扱うためにテキスト・画像拡散モデルを適用することに焦点を当てる。
論文 参考訳(メタデータ) (2023-06-14T17:23:07Z) - DeepDC: Deep Distance Correlation as a Perceptual Image Quality
Evaluator [53.57431705309919]
ImageNet Pre-trained Deep Neural Network (DNN)は、効果的な画像品質評価(IQA)モデルを構築するための顕著な転送性を示す。
我々は,事前学習DNN機能のみに基づく新しいフル参照IQA(FR-IQA)モデルを開発した。
5つの標準IQAデータセット上で,提案した品質モデルの優位性を示すため,包括的実験を行った。
論文 参考訳(メタデータ) (2022-11-09T14:57:27Z) - DeepWSD: Projecting Degradations in Perceptual Space to Wasserstein
Distance in Deep Feature Space [67.07476542850566]
本稿では,統計的分布の観点から知覚空間の品質劣化をモデル化する。
品質は、深い特徴領域におけるワッサーシュタイン距離に基づいて測定される。
ニューラルネットワークの特徴に基づいて実行されるディープワッサースタイン距離(ディープWSD)は、品質汚染のより良い解釈性をもたらす。
論文 参考訳(メタデータ) (2022-08-05T02:46:12Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - Locally Adaptive Structure and Texture Similarity for Image Quality
Assessment [33.58928017067797]
フル参照画像品質評価(IQA)のための局所適応構造とテクスチャ類似度指標について述べる。
具体的には、異なるスケールでテクスチャ領域をローカライズするために、分散指数と呼ばれる単一の統計的特徴に依存する。
その結果、A-DISTSは局所的な画像コンテンツに適応し、教師付きトレーニングのための高価な人間の知覚スコアを欠いている。
論文 参考訳(メタデータ) (2021-10-16T09:19:56Z) - A Deep Drift-Diffusion Model for Image Aesthetic Score Distribution
Prediction [68.76594695163386]
画像から美的スコアの分布を予測するために,心理学者から着想を得たディープドリフト拡散モデルを提案する。
DDDモデルは、評価結果の伝統的なモデリングではなく、美的知覚の心理的プロセスを記述することができる。
私たちの新しいDDDモデルはシンプルだが効率的であり、美的スコア分布予測における最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2020-10-15T11:01:46Z) - Image Quality Assessment: Unifying Structure and Texture Similarity [38.05659069533254]
テクスチャリサンプリングに対する耐性を明示した,最初のフル参照画像品質モデルを開発した。
畳み込みニューラルネットワークを用いて、画像をオーバーコンプリート表現に変換するインジェクティブで微分可能な関数を構築する。
論文 参考訳(メタデータ) (2020-04-16T16:11:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。