論文の概要: A Shift-insensitive Full Reference Image Quality Assessment Model Based
on Quadratic Sum of Gradient Magnitude and LOG signals
- arxiv url: http://arxiv.org/abs/2012.11525v1
- Date: Mon, 21 Dec 2020 17:41:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 06:21:07.931651
- Title: A Shift-insensitive Full Reference Image Quality Assessment Model Based
on Quadratic Sum of Gradient Magnitude and LOG signals
- Title(参考訳): 勾配等級とログ信号の2次和に基づくシフト非感受性フルリファレンス画像品質評価モデル
- Authors: Congmin Chen, Xuanqin Mou
- Abstract要約: 本研究では,GMとLOG信号の2次和を用いたFR-IQAモデルを提案する。
実験の結果,提案モデルは3つの大規模主観的IQAデータベース上で堅牢に動作することがわかった。
- 参考スコア(独自算出の注目度): 7.0736273644584715
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image quality assessment that aims at estimating the subject quality of
images, builds models to evaluate the perceptual quality of the image in
different applications. Based on the fact that the human visual system (HVS) is
highly sensitive to structural information, the edge information extraction is
widely applied in different IQA metrics. According to previous studies, the
image gradient magnitude (GM) and the Laplacian of Gaussian (LOG) operator are
two efficient structural features in IQA tasks. However, most of the IQA
metrics achieve good performance only when the distorted image is totally
registered with the reference image, but fail to perform on images with small
translations. In this paper, we propose an FR-IQA model with the quadratic sum
of the GM and the LOG signals, which obtains good performance in image quality
estimation considering shift-insensitive property for not well-registered
reference and distortion image pairs. Experimental results show that the
proposed model works robustly on three large scale subjective IQA databases
which contain a variety of distortion types and levels, and stays in the
state-of-the-art FR-IQA models no matter for single distortion type or across
whole database. Furthermore, we validated that the proposed metric performs
better with shift-insensitive property compared with the CW-SSIM metric that is
considered to be shift-insensitive IQA so far. Meanwhile, the proposed model is
much simple than the CW-SSIM, which is efficient for applications.
- Abstract(参考訳): 画像の主観的品質を推定することを目的とした画質評価を行い、異なるアプリケーションで画像の知覚的品質を評価するモデルを構築する。
ヒト視覚システム(HVS)が構造情報に非常に敏感であるという事実に基づいて、エッジ情報抽出は様々なIQAメトリクスに広く適用されている。
これまでの研究では、画像勾配等級(GM)とガウス作用素(LOG)は、IQAタスクにおける2つの効率的な構造的特徴である。
しかし、IQAの指標のほとんどは、歪んだ画像が参照画像に完全に登録されている場合にのみ優れた性能を発揮するが、小さい翻訳で画像上では実行できない。
本稿では,GMとLOG信号の2次和を持つFR-IQAモデルを提案する。
実験結果から,提案モデルは,様々な歪みタイプとレベルを含む3つの大規模主観型IQAデータベース上で頑健に動作し,単一の歪みタイプやデータベース全体に関係なく,最先端のFR-IQAモデルに留まっていることがわかった。
さらに, 従来のIQAのCW-SSIM測定値と比較して, シフト非感受性特性が良好であることを確認した。
一方,提案手法はアプリケーションに効率的なCW-SSIMよりもはるかに単純である。
関連論文リスト
- CONVIQT: Contrastive Video Quality Estimator [63.749184706461826]
知覚ビデオ品質評価(VQA)は、多くのストリーミングおよびビデオ共有プラットフォームにおいて不可欠な要素である。
本稿では,視覚的に関連のある映像品質表現を自己指導的に学習する問題について考察する。
本研究は, 自己教師型学習を用いて, 知覚力による説得力のある表現が得られることを示す。
論文 参考訳(メタデータ) (2022-06-29T15:22:01Z) - MSTRIQ: No Reference Image Quality Assessment Based on Swin Transformer
with Multi-Stage Fusion [8.338999282303755]
本稿では,Swin Transformerに基づく新しいアルゴリズムを提案する。
ローカル機能とグローバル機能の両方から情報を集約して、品質をより正確に予測する。
NTIRE 2022 Perceptual Image Quality Assessment Challengeのノーレファレンストラックで2位。
論文 参考訳(メタデータ) (2022-05-20T11:34:35Z) - Conformer and Blind Noisy Students for Improved Image Quality Assessment [80.57006406834466]
知覚品質評価(IQA)のための学習ベースアプローチは、通常、知覚品質を正確に測定するために歪んだ画像と参照画像の両方を必要とする。
本研究では,変換器を用いた全参照IQAモデルの性能について検討する。
また,全教師モデルから盲人学生モデルへの半教師付き知識蒸留に基づくIQAの手法を提案する。
論文 参考訳(メタデータ) (2022-04-27T10:21:08Z) - Confusing Image Quality Assessment: Towards Better Augmented Reality
Experience [96.29124666702566]
我々はAR技術を仮想シーンと実シーンの重ね合わせとみなし、視覚的混乱を基本的な理論として紹介する。
ConFusing Image Quality Assessment (CFIQA)データベースが構築され、600個の参照画像と300個の歪画像とをペアに混合して生成する。
また、難解な画像品質をよりよく評価するために、CFIQAと呼ばれる客観的な計量も提案されている。
論文 参考訳(メタデータ) (2022-04-11T07:03:06Z) - Can No-reference features help in Full-reference image quality
estimation? [20.491565297561912]
完全参照IQAタスクにおけるノン参照機能の利用について検討する。
我々のモデルは、多くの最先端アルゴリズムよりも高いSRCCとKRCCのスコアを達成する。
論文 参考訳(メタデータ) (2022-03-02T03:39:28Z) - Learning Transformer Features for Image Quality Assessment [53.51379676690971]
本稿では,CNNバックボーンとトランスフォーマーエンコーダを用いて特徴抽出を行うIQAフレームワークを提案する。
提案するフレームワークはFRモードとNRモードの両方と互換性があり、共同トレーニング方式が可能である。
論文 参考訳(メタデータ) (2021-12-01T13:23:00Z) - Palette: Image-to-Image Diffusion Models [50.268441533631176]
我々は条件付き拡散モデルを用いた画像から画像への変換のためのシンプルで一般的なフレームワークであるPaletteを紹介する。
4つの困難な画像から画像への変換タスクにおいて、Paletteは強力なGANと回帰ベースラインを上回っている。
本稿では、FID、インセプションスコア、事前訓練されたResNet-50の分類精度、参照画像に対する知覚距離などのサンプル品質スコアについて報告する。
論文 参考訳(メタデータ) (2021-11-10T17:49:29Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - No-Reference Image Quality Assessment via Transformers, Relative
Ranking, and Self-Consistency [38.88541492121366]
No-Reference Image Quality Assessment (NR-IQA) の目的は、主観的評価に応じて知覚的画質を推定することである。
本稿では、変圧器における畳み込みニューラルネットワーク(CNN)と自己保持機構の利点を生かしたハイブリッドアプローチを利用して、NR-IQAタスクに対処する新しいモデルを提案する。
論文 参考訳(メタデータ) (2021-08-16T02:07:08Z) - Perceptual Image Quality Assessment with Transformers [4.005576542371173]
本論文では,フルリファレンス画像品質評価タスクにトランスアーキテクチャを適用した画像品質変換器(IQT)を提案する。
畳み込みニューラルネットワークのバックボーンを用いて,各入力画像から知覚的特徴表現を抽出する。
提案するiqtは,ntire 2021画像品質評価課題の参加者13名中,第1位にランクされた。
論文 参考訳(メタデータ) (2021-04-30T02:45:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。