論文の概要: Study of Subjective and Objective Quality in Super-Resolution Enhanced Broadcast Images on a Novel SR-IQA Dataset
- arxiv url: http://arxiv.org/abs/2409.17451v1
- Date: Thu, 26 Sep 2024 01:07:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-28 23:40:01.074322
- Title: Study of Subjective and Objective Quality in Super-Resolution Enhanced Broadcast Images on a Novel SR-IQA Dataset
- Title(参考訳): SR-IQAデータセットを用いた高解像度放送画像の主観的・客観的品質の検討
- Authors: Yongrok Kim, Junha Shin, Juhyun Lee, Hyunsuk Ko,
- Abstract要約: 超解像技術(SR)は、高解像度のスクリーンに高画質の放送コンテンツをフルスクリーンで表示するために不可欠である。
SR強調放送コンテンツなどの低品質ソースから生成されたSR画像の品質を評価することは困難である。
SR放送画像のための新しいIQAデータセットを2Kと4Kの解像度で導入する。
- 参考スコア(独自算出の注目度): 4.770359059226373
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: To display low-quality broadcast content on high-resolution screens in full-screen format, the application of Super-Resolution (SR), a key consumer technology, is essential. Recently, SR methods have been developed that not only increase resolution while preserving the original image information but also enhance the perceived quality. However, evaluating the quality of SR images generated from low-quality sources, such as SR-enhanced broadcast content, is challenging due to the need to consider both distortions and improvements. Additionally, assessing SR image quality without original high-quality sources presents another significant challenge. Unfortunately, there has been a dearth of research specifically addressing the Image Quality Assessment (IQA) of SR images under these conditions. In this work, we introduce a new IQA dataset for SR broadcast images in both 2K and 4K resolutions. We conducted a subjective quality evaluation to obtain the Mean Opinion Score (MOS) for these SR images and performed a comprehensive human study to identify the key factors influencing the perceived quality. Finally, we evaluated the performance of existing IQA metrics on our dataset. This study reveals the limitations of current metrics, highlighting the need for a more robust IQA metric that better correlates with the perceived quality of SR images.
- Abstract(参考訳): 高品質の放送コンテンツをフルスクリーン方式で高解像度画面に表示するためには、主要な消費者技術であるスーパーリゾリューション(SR)の適用が不可欠である。
近年,元の画像情報を保存しながら解像度を向上するばかりでなく,認識品質を向上させるSR手法が開発されている。
しかし、SR強調放送コンテンツのような低品質ソースから生成されたSR画像の品質を評価することは、歪みと改善の両方を考慮する必要があるため困難である。
さらに、元の高品質ソースを使わずにSR画像の品質を評価することは、もうひとつの重要な課題である。
残念なことに、これらの条件下では、SR画像の画像品質評価(IQA)に対処する研究が数多く行われている。
本研究では,2Kおよび4K解像度のSR放送画像を対象とした新しいIQAデータセットを提案する。
これらのSR画像に対する平均オピニオンスコア(MOS)を得るために主観的品質評価を行い、認識された品質に影響を及ぼす要因を特定するために包括的な人間研究を行った。
最後に、データセット上の既存のIQAメトリクスのパフォーマンスを評価した。
本研究は、現在の指標の限界を明らかにし、SR画像の品質と相関するより堅牢なIQAメトリクスの必要性を明らかにする。
関連論文リスト
- Q-Ground: Image Quality Grounding with Large Multi-modality Models [61.72022069880346]
Q-Groundは、大規模な視覚的品質グラウンドに取り組むための最初のフレームワークである。
Q-Groundは、大規模なマルチモダリティモデルと詳細な視覚的品質分析を組み合わせる。
コントリビューションの中心は、QGround-100Kデータセットの導入です。
論文 参考訳(メタデータ) (2024-07-24T06:42:46Z) - Perception- and Fidelity-aware Reduced-Reference Super-Resolution Image Quality Assessment [25.88845910499606]
PFIQA(Pual-branch reduce-reference SR-IQA network, ie, Perception- and Fidelity-aware SR-IQA)を提案する。
PFIQAは3つの広く使用されているSR-IQAベンチマークで現在の最先端モデルを上回っている。
論文 参考訳(メタデータ) (2024-05-15T16:09:22Z) - Dual-Branch Network for Portrait Image Quality Assessment [76.27716058987251]
ポートレート画像品質評価のためのデュアルブランチネットワーク(PIQA)を提案する。
我々は2つのバックボーンネットワーク(textiti.e., Swin Transformer-B)を使用して、肖像画全体と顔画像から高品質な特徴を抽出する。
我々は、画像シーンの分類と品質評価モデルであるLIQEを利用して、品質認識とシーン固有の特徴を補助的特徴として捉えている。
論文 参考訳(メタデータ) (2024-05-14T12:43:43Z) - Diffusion Model Based Visual Compensation Guidance and Visual Difference
Analysis for No-Reference Image Quality Assessment [82.13830107682232]
本稿では, 複雑な関係をモデル化する能力を示す, 最先端(SOTA)生成モデルを提案する。
生成した拡張画像とノイズを含む画像を利用する新しい拡散復元ネットワークを考案する。
2つの視覚評価枝は、得られた高レベル特徴情報を包括的に解析するように設計されている。
論文 参考訳(メタデータ) (2024-02-22T09:39:46Z) - Scale Guided Hypernetwork for Blind Super-Resolution Image Quality
Assessment [2.4366811507669124]
既存のブラインドSR画像品質評価(IQA)メトリクスは、単に超高解像度画像の視覚的特徴に焦点を当てているだけである。
本稿では、SR画像の品質をスケール適応的に評価するスケールガイド型ハイパーネットワークフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-04T16:17:19Z) - Textural-Structural Joint Learning for No-Reference Super-Resolution
Image Quality Assessment [59.91741119995321]
我々は、TSNetと呼ばれる品質予測のためのテキスト情報と構造情報を共同で探索するデュアルストリームネットワークを開発した。
画像の重要な領域に注意を払っている人間の視覚システム(HVS)を模倣することにより、視覚に敏感な領域をより区別しやすくするための空間的注意機構を開発する。
実験の結果,提案したTSNetは現状のIQA法よりも視覚的品質を正確に予測し,人間の視点との整合性を示した。
論文 参考訳(メタデータ) (2022-05-27T09:20:06Z) - SPQE: Structure-and-Perception-Based Quality Evaluation for Image
Super-Resolution [24.584839578742237]
超解像技術は画像の画質を大幅に改善し、解像度を向上した。
また、これらのアルゴリズムや生成された画像を評価するための効率的なSR画像品質評価(SR-IQA)も求めている。
深層学習ベースSRでは、生成した高品質で視覚的に喜ぶ画像は、対応する低品質の画像とは異なる構造を持つ可能性がある。
論文 参考訳(メタデータ) (2022-05-07T07:52:55Z) - Confusing Image Quality Assessment: Towards Better Augmented Reality
Experience [96.29124666702566]
我々はAR技術を仮想シーンと実シーンの重ね合わせとみなし、視覚的混乱を基本的な理論として紹介する。
ConFusing Image Quality Assessment (CFIQA)データベースが構築され、600個の参照画像と300個の歪画像とをペアに混合して生成する。
また、難解な画像品質をよりよく評価するために、CFIQAと呼ばれる客観的な計量も提案されている。
論文 参考訳(メタデータ) (2022-04-11T07:03:06Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - Learning-Based Quality Assessment for Image Super-Resolution [25.76907513611358]
我々は,新しい半自動ラベリング手法を用いて,大規模sr画像データベースを構築する。
結果のSR画像品質データベースには、100の自然シーンの8,400の画像が含まれている。
特徴抽出にDNN(Deep Neural Networks)を用いたエンドツーエンドのDeep Image SR Quality(DISQ)モデルと、品質予測のためのFeature fusion Networkをトレーニングします。
論文 参考訳(メタデータ) (2020-12-16T04:06:27Z) - Blind Quality Assessment for Image Superresolution Using Deep Two-Stream
Convolutional Networks [41.558981828761574]
我々は,非参照深部ニューラルネットワークを用いたSR画像品質評価器(DeepSRQ)を提案する。
様々な歪んだSR画像のより識別的な特徴表現を学習するために、提案したDeepSRQは2ストリームの畳み込みネットワークである。
3つの公開SR画像品質データベースの実験結果から,提案したDeepSRQの有効性と一般化能力を示す。
論文 参考訳(メタデータ) (2020-04-13T19:14:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。