論文の概要: Scale Guided Hypernetwork for Blind Super-Resolution Image Quality
Assessment
- arxiv url: http://arxiv.org/abs/2306.02398v1
- Date: Sun, 4 Jun 2023 16:17:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 18:07:04.368567
- Title: Scale Guided Hypernetwork for Blind Super-Resolution Image Quality
Assessment
- Title(参考訳): ブラインド超解像品質評価のためのスケールガイドハイパーネットワーク
- Authors: Jun Fu
- Abstract要約: 既存のブラインドSR画像品質評価(IQA)メトリクスは、単に超高解像度画像の視覚的特徴に焦点を当てているだけである。
本稿では、SR画像の品質をスケール適応的に評価するスケールガイド型ハイパーネットワークフレームワークを提案する。
- 参考スコア(独自算出の注目度): 2.4366811507669124
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: With the emergence of image super-resolution (SR) algorithm, how to blindly
evaluate the quality of super-resolution images has become an urgent task.
However, existing blind SR image quality assessment (IQA) metrics merely focus
on visual characteristics of super-resolution images, ignoring the available
scale information. In this paper, we reveal that the scale factor has a
statistically significant impact on subjective quality scores of SR images,
indicating that the scale information can be used to guide the task of blind SR
IQA. Motivated by this, we propose a scale guided hypernetwork framework that
evaluates SR image quality in a scale-adaptive manner. Specifically, the blind
SR IQA procedure is divided into three stages, i.e., content perception,
evaluation rule generation, and quality prediction. After content perception, a
hypernetwork generates the evaluation rule used in quality prediction based on
the scale factor of the SR image. We apply the proposed scale guided
hypernetwork framework to existing representative blind IQA metrics, and
experimental results show that the proposed framework not only boosts the
performance of these IQA metrics but also enhances their generalization
abilities. Source code will be available at https://github.com/JunFu1995/SGH.
- Abstract(参考訳): 画像超解像(SR)アルゴリズムの出現により、超解像の品質を盲目的に評価する方法が緊急課題となっている。
しかし、既存のブラインドsr画像品質評価(iqa)指標は、超解像度画像の視覚特性のみに焦点を当て、利用可能なスケール情報を無視している。
本稿では,尺度因子がSR画像の主観的品質スコアに統計的に有意な影響を与えていることを明らかにする。
そこで我々は、SR画像の品質をスケール適応的に評価するスケールガイド型ハイパーネットワークフレームワークを提案する。
具体的には、ブラインドSR IQA手順は、コンテンツ知覚、評価規則生成、品質予測の3段階に分けられる。
コンテンツ認識後、ハイパーネットワークはSR画像のスケール係数に基づいて品質予測に使用される評価ルールを生成する。
提案するスケールガイド型ハイパーネットワークフレームワークを既存の盲点IQAメトリクスに適用し,実験結果から,提案フレームワークはこれらのIQAメトリクスの性能向上だけでなく,一般化能力の向上も図っている。
ソースコードはhttps://github.com/JunFu 1995/SGHで入手できる。
関連論文リスト
- Study of Subjective and Objective Quality in Super-Resolution Enhanced Broadcast Images on a Novel SR-IQA Dataset [4.770359059226373]
超解像技術(SR)は、高解像度のスクリーンに高画質の放送コンテンツをフルスクリーンで表示するために不可欠である。
SR強調放送コンテンツなどの低品質ソースから生成されたSR画像の品質を評価することは困難である。
SR放送画像のための新しいIQAデータセットを2Kと4Kの解像度で導入する。
論文 参考訳(メタデータ) (2024-09-26T01:07:15Z) - Perception- and Fidelity-aware Reduced-Reference Super-Resolution Image Quality Assessment [25.88845910499606]
PFIQA(Pual-branch reduce-reference SR-IQA network, ie, Perception- and Fidelity-aware SR-IQA)を提案する。
PFIQAは3つの広く使用されているSR-IQAベンチマークで現在の最先端モデルを上回っている。
論文 参考訳(メタデータ) (2024-05-15T16:09:22Z) - Adaptive Feature Selection for No-Reference Image Quality Assessment by Mitigating Semantic Noise Sensitivity [55.399230250413986]
上流タスクから有害なセマンティックノイズを除去するためのQFM-IQM(Quality-Aware Feature Matching IQA Metric)を提案する。
提案手法は,8つの標準IQAデータセット上での最先端NR-IQA法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2023-12-11T06:50:27Z) - Blind Image Quality Assessment via Vision-Language Correspondence: A
Multitask Learning Perspective [93.56647950778357]
ブラインド画像品質評価(BIQA)は、参照情報なしで画像品質の人間の知覚を予測する。
我々は,他のタスクからの補助的知識を活用するために,BIQAのための汎用的かつ自動化されたマルチタスク学習手法を開発した。
論文 参考訳(メタデータ) (2023-03-27T07:58:09Z) - CADyQ: Content-Aware Dynamic Quantization for Image Super-Resolution [55.50793823060282]
本稿では,画像超解像(SR)ネットワークのための新しいコンテント・アウェア・ダイナミック量子化(CADyQ)手法を提案する。
CADyQは、入力画像のローカル内容に基づいて、局所領域と層に最適なビットを適応的に割り当てる。
パイプラインは様々なSRネットワークでテストされ、いくつかの標準ベンチマークで評価されている。
論文 参考訳(メタデータ) (2022-07-21T07:50:50Z) - Textural-Structural Joint Learning for No-Reference Super-Resolution
Image Quality Assessment [59.91741119995321]
我々は、TSNetと呼ばれる品質予測のためのテキスト情報と構造情報を共同で探索するデュアルストリームネットワークを開発した。
画像の重要な領域に注意を払っている人間の視覚システム(HVS)を模倣することにより、視覚に敏感な領域をより区別しやすくするための空間的注意機構を開発する。
実験の結果,提案したTSNetは現状のIQA法よりも視覚的品質を正確に予測し,人間の視点との整合性を示した。
論文 参考訳(メタデータ) (2022-05-27T09:20:06Z) - SPQE: Structure-and-Perception-Based Quality Evaluation for Image
Super-Resolution [24.584839578742237]
超解像技術は画像の画質を大幅に改善し、解像度を向上した。
また、これらのアルゴリズムや生成された画像を評価するための効率的なSR画像品質評価(SR-IQA)も求めている。
深層学習ベースSRでは、生成した高品質で視覚的に喜ぶ画像は、対応する低品質の画像とは異なる構造を持つ可能性がある。
論文 参考訳(メタデータ) (2022-05-07T07:52:55Z) - Learning Transformer Features for Image Quality Assessment [53.51379676690971]
本稿では,CNNバックボーンとトランスフォーマーエンコーダを用いて特徴抽出を行うIQAフレームワークを提案する。
提案するフレームワークはFRモードとNRモードの両方と互換性があり、共同トレーニング方式が可能である。
論文 参考訳(メタデータ) (2021-12-01T13:23:00Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - Learning-Based Quality Assessment for Image Super-Resolution [25.76907513611358]
我々は,新しい半自動ラベリング手法を用いて,大規模sr画像データベースを構築する。
結果のSR画像品質データベースには、100の自然シーンの8,400の画像が含まれている。
特徴抽出にDNN(Deep Neural Networks)を用いたエンドツーエンドのDeep Image SR Quality(DISQ)モデルと、品質予測のためのFeature fusion Networkをトレーニングします。
論文 参考訳(メタデータ) (2020-12-16T04:06:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。