論文の概要: SPQE: Structure-and-Perception-Based Quality Evaluation for Image
Super-Resolution
- arxiv url: http://arxiv.org/abs/2205.03584v1
- Date: Sat, 7 May 2022 07:52:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-10 16:47:11.541449
- Title: SPQE: Structure-and-Perception-Based Quality Evaluation for Image
Super-Resolution
- Title(参考訳): SPQE:超解像のための構造と知覚に基づく品質評価
- Authors: Keke Zhang, Tiesong Zhao, Weiling Chen, Yuzhen Niu, Jinsong Hu
- Abstract要約: 超解像技術は画像の画質を大幅に改善し、解像度を向上した。
また、これらのアルゴリズムや生成された画像を評価するための効率的なSR画像品質評価(SR-IQA)も求めている。
深層学習ベースSRでは、生成した高品質で視覚的に喜ぶ画像は、対応する低品質の画像とは異なる構造を持つ可能性がある。
- 参考スコア(独自算出の注目度): 24.584839578742237
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The image Super-Resolution (SR) technique has greatly improved the visual
quality of images by enhancing their resolutions. It also calls for an
efficient SR Image Quality Assessment (SR-IQA) to evaluate those algorithms or
their generated images. In this paper, we focus on the SR-IQA under deep
learning and propose a Structure-and-Perception-based Quality Evaluation
(SPQE). In emerging deep-learning-based SR, a generated high-quality, visually
pleasing image may have different structures from its corresponding low-quality
image. In such case, how to balance the quality scores between no-reference
perceptual quality and referenced structural similarity is a critical issue. To
help ease this problem, we give a theoretical analysis on this tradeoff and
further calculate adaptive weights for the two types of quality scores. We also
propose two deep-learning-based regressors to model the no-reference and
referenced scores. By combining the quality scores and their weights, we
propose a unified SPQE metric for SR-IQA. Experimental results demonstrate that
the proposed method outperforms the state-of-the-arts in different datasets.
- Abstract(参考訳): 画像スーパーレゾリューション(sr)技術は、解像度を高めて画像の画質を大幅に向上させた。
また、これらのアルゴリズムや生成された画像を評価するための効率的なSR画像品質評価(SR-IQA)も求めている。
本稿では,深層学習におけるSR-IQAに着目し,構造と知覚に基づく品質評価(SPQE)を提案する。
深層学習ベースSRでは、生成した高品質で視覚的に喜ぶ画像は、対応する低品質の画像とは異なる構造を持つ可能性がある。
このような場合、無基準の知覚的品質と参照された構造的類似性との質スコアのバランスをとることは重要な問題である。
この問題を緩和するために,このトレードオフを理論的に解析し,さらに2種類の品質スコアの適応重みを算出した。
また,非参照と参照スコアをモデル化するための2つのディープラーニングベースの回帰器を提案する。
品質スコアと重みを組み合わせることで、SR-IQAのための統一SPQEメトリックを提案する。
実験の結果,提案手法は異なるデータセットにおいて最先端の手法よりも優れていることがわかった。
関連論文リスト
- Study of Subjective and Objective Quality in Super-Resolution Enhanced Broadcast Images on a Novel SR-IQA Dataset [4.770359059226373]
超解像技術(SR)は、高解像度のスクリーンに高画質の放送コンテンツをフルスクリーンで表示するために不可欠である。
SR強調放送コンテンツなどの低品質ソースから生成されたSR画像の品質を評価することは困難である。
SR放送画像のための新しいIQAデータセットを2Kと4Kの解像度で導入する。
論文 参考訳(メタデータ) (2024-09-26T01:07:15Z) - Perception- and Fidelity-aware Reduced-Reference Super-Resolution Image Quality Assessment [25.88845910499606]
PFIQA(Pual-branch reduce-reference SR-IQA network, ie, Perception- and Fidelity-aware SR-IQA)を提案する。
PFIQAは3つの広く使用されているSR-IQAベンチマークで現在の最先端モデルを上回っている。
論文 参考訳(メタデータ) (2024-05-15T16:09:22Z) - Dual-Branch Network for Portrait Image Quality Assessment [76.27716058987251]
ポートレート画像品質評価のためのデュアルブランチネットワーク(PIQA)を提案する。
我々は2つのバックボーンネットワーク(textiti.e., Swin Transformer-B)を使用して、肖像画全体と顔画像から高品質な特徴を抽出する。
我々は、画像シーンの分類と品質評価モデルであるLIQEを利用して、品質認識とシーン固有の特徴を補助的特徴として捉えている。
論文 参考訳(メタデータ) (2024-05-14T12:43:43Z) - Comparison of No-Reference Image Quality Models via MAP Estimation in
Diffusion Latents [99.19391983670569]
NR-IQAモデルは、画像強調のための最大後部推定(MAP)フレームワークにプラグイン可能であることを示す。
異なるNR-IQAモデルは異なる拡張イメージを誘導し、最終的には精神物理学的なテストを受ける。
これにより, NR-IQAモデルの比較を行う新たな計算手法が提案される。
論文 参考訳(メタデータ) (2024-03-11T03:35:41Z) - Scale Guided Hypernetwork for Blind Super-Resolution Image Quality
Assessment [2.4366811507669124]
既存のブラインドSR画像品質評価(IQA)メトリクスは、単に超高解像度画像の視覚的特徴に焦点を当てているだけである。
本稿では、SR画像の品質をスケール適応的に評価するスケールガイド型ハイパーネットワークフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-04T16:17:19Z) - A No-Reference Deep Learning Quality Assessment Method for
Super-resolution Images Based on Frequency Maps [39.58198651685851]
本稿では,周波数マップに基づく非参照ディープラーニング画像品質評価手法を提案する。
まず、SRIの高周波マップ(HM)と低周波マップ(LM)を、Sobel演算子とスムーズな画像近似を用いて取得する。
提案手法は,選択した3つの超解像品質評価(SRQA)データベース上で比較したIQAモデルよりも優れている。
論文 参考訳(メタデータ) (2022-06-09T05:43:37Z) - Textural-Structural Joint Learning for No-Reference Super-Resolution
Image Quality Assessment [59.91741119995321]
我々は、TSNetと呼ばれる品質予測のためのテキスト情報と構造情報を共同で探索するデュアルストリームネットワークを開発した。
画像の重要な領域に注意を払っている人間の視覚システム(HVS)を模倣することにより、視覚に敏感な領域をより区別しやすくするための空間的注意機構を開発する。
実験の結果,提案したTSNetは現状のIQA法よりも視覚的品質を正確に予測し,人間の視点との整合性を示した。
論文 参考訳(メタデータ) (2022-05-27T09:20:06Z) - Confusing Image Quality Assessment: Towards Better Augmented Reality
Experience [96.29124666702566]
我々はAR技術を仮想シーンと実シーンの重ね合わせとみなし、視覚的混乱を基本的な理論として紹介する。
ConFusing Image Quality Assessment (CFIQA)データベースが構築され、600個の参照画像と300個の歪画像とをペアに混合して生成する。
また、難解な画像品質をよりよく評価するために、CFIQAと呼ばれる客観的な計量も提案されている。
論文 参考訳(メタデータ) (2022-04-11T07:03:06Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - Learning Conditional Knowledge Distillation for Degraded-Reference Image
Quality Assessment [157.1292674649519]
劣化参照IQA(DR-IQA)という実用的な解を提案する。
DR-IQAはIRモデルの入力、劣化したイメージを参照として利用する。
私たちの結果は、フル参照設定のパフォーマンスに近いものもあります。
論文 参考訳(メタデータ) (2021-08-18T02:35:08Z) - Blind Quality Assessment for Image Superresolution Using Deep Two-Stream
Convolutional Networks [41.558981828761574]
我々は,非参照深部ニューラルネットワークを用いたSR画像品質評価器(DeepSRQ)を提案する。
様々な歪んだSR画像のより識別的な特徴表現を学習するために、提案したDeepSRQは2ストリームの畳み込みネットワークである。
3つの公開SR画像品質データベースの実験結果から,提案したDeepSRQの有効性と一般化能力を示す。
論文 参考訳(メタデータ) (2020-04-13T19:14:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。