論文の概要: A Shift-insensitive Full Reference Image Quality Assessment Model Based
on Quadratic Sum of Gradient Magnitude and LOG signals
- arxiv url: http://arxiv.org/abs/2012.11525v1
- Date: Mon, 21 Dec 2020 17:41:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 06:21:07.931651
- Title: A Shift-insensitive Full Reference Image Quality Assessment Model Based
on Quadratic Sum of Gradient Magnitude and LOG signals
- Title(参考訳): 勾配等級とログ信号の2次和に基づくシフト非感受性フルリファレンス画像品質評価モデル
- Authors: Congmin Chen, Xuanqin Mou
- Abstract要約: 本研究では,GMとLOG信号の2次和を用いたFR-IQAモデルを提案する。
実験の結果,提案モデルは3つの大規模主観的IQAデータベース上で堅牢に動作することがわかった。
- 参考スコア(独自算出の注目度): 7.0736273644584715
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image quality assessment that aims at estimating the subject quality of
images, builds models to evaluate the perceptual quality of the image in
different applications. Based on the fact that the human visual system (HVS) is
highly sensitive to structural information, the edge information extraction is
widely applied in different IQA metrics. According to previous studies, the
image gradient magnitude (GM) and the Laplacian of Gaussian (LOG) operator are
two efficient structural features in IQA tasks. However, most of the IQA
metrics achieve good performance only when the distorted image is totally
registered with the reference image, but fail to perform on images with small
translations. In this paper, we propose an FR-IQA model with the quadratic sum
of the GM and the LOG signals, which obtains good performance in image quality
estimation considering shift-insensitive property for not well-registered
reference and distortion image pairs. Experimental results show that the
proposed model works robustly on three large scale subjective IQA databases
which contain a variety of distortion types and levels, and stays in the
state-of-the-art FR-IQA models no matter for single distortion type or across
whole database. Furthermore, we validated that the proposed metric performs
better with shift-insensitive property compared with the CW-SSIM metric that is
considered to be shift-insensitive IQA so far. Meanwhile, the proposed model is
much simple than the CW-SSIM, which is efficient for applications.
- Abstract(参考訳): 画像の主観的品質を推定することを目的とした画質評価を行い、異なるアプリケーションで画像の知覚的品質を評価するモデルを構築する。
ヒト視覚システム(HVS)が構造情報に非常に敏感であるという事実に基づいて、エッジ情報抽出は様々なIQAメトリクスに広く適用されている。
これまでの研究では、画像勾配等級(GM)とガウス作用素(LOG)は、IQAタスクにおける2つの効率的な構造的特徴である。
しかし、IQAの指標のほとんどは、歪んだ画像が参照画像に完全に登録されている場合にのみ優れた性能を発揮するが、小さい翻訳で画像上では実行できない。
本稿では,GMとLOG信号の2次和を持つFR-IQAモデルを提案する。
実験結果から,提案モデルは,様々な歪みタイプとレベルを含む3つの大規模主観型IQAデータベース上で頑健に動作し,単一の歪みタイプやデータベース全体に関係なく,最先端のFR-IQAモデルに留まっていることがわかった。
さらに, 従来のIQAのCW-SSIM測定値と比較して, シフト非感受性特性が良好であることを確認した。
一方,提案手法はアプリケーションに効率的なCW-SSIMよりもはるかに単純である。
関連論文リスト
- Comparison of No-Reference Image Quality Models via MAP Estimation in
Diffusion Latents [99.19391983670569]
NR-IQAモデルは、画像強調のための最大後部推定(MAP)フレームワークにプラグイン可能であることを示す。
異なるNR-IQAモデルは異なる拡張イメージを誘導し、最終的には精神物理学的なテストを受ける。
これにより, NR-IQAモデルの比較を行う新たな計算手法が提案される。
論文 参考訳(メタデータ) (2024-03-11T03:35:41Z) - Transformer-based No-Reference Image Quality Assessment via Supervised
Contrastive Learning [36.695247860715874]
本稿では,新しいコントラスト学習 (Contrastive Learning, SCL) と NR-IQA モデル SaTQA を提案する。
まず、SCLによる大規模合成データセット上にモデルをトレーニングし、様々な歪みタイプとレベルの画像の劣化特徴を抽出する。
画像から歪み情報を抽出するために,CNNインダクティブバイアスとTransformerの長期依存性モデリング機能を組み合わせることで,マルチストリームブロック(MSB)を組み込んだバックボーンネットワークを提案する。
7つの標準IQAデータセットの実験結果から、SaTQAは合成データセットと認証データセットの両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-12-12T06:01:41Z) - Learning Generalizable Perceptual Representations for Data-Efficient
No-Reference Image Quality Assessment [7.291687946822539]
最先端のNR-IQA技術の大きな欠点は、多数の人間のアノテーションに依存していることである。
低レベルな特徴の学習を、新しい品質に配慮したコントラスト損失を導入することで、歪みタイプの学習を可能にする。
両経路からゼロショット品質の予測を、完全に盲目な環境で設計する。
論文 参考訳(メタデータ) (2023-12-08T05:24:21Z) - UNIQA: A Unified Framework for Both Full-Reference and No-Reference
Image Quality Assessment [53.895598734070695]
完全参照(FR)と非参照(NR)のIQAのための統一ネットワークを提案する。
入力画像から多レベル特徴を抽出するためにエンコーダを用いる。
FRおよびNR入力のユニバーサルアダプタとして階層自己認識(HSA)モジュールを提案する。
HSA と CSCA を採用することにより,提案ネットワークは FR と NR IQA の両方を効果的に実行することができる。
論文 参考訳(メタデータ) (2023-10-14T11:03:04Z) - AGIQA-3K: An Open Database for AI-Generated Image Quality Assessment [62.8834581626703]
我々はこれまでに最も包括的な主観的品質データベース AGIQA-3K を構築している。
このデータベース上でベンチマーク実験を行い、現在の画像品質評価(IQA)モデルと人間の知覚との整合性を評価する。
我々は、AGIQA-3Kの微粒な主観的スコアが、その後のAGI品質モデルにヒトの主観的知覚機構に適合するよう促すと信じている。
論文 参考訳(メタデータ) (2023-06-07T18:28:21Z) - Conformer and Blind Noisy Students for Improved Image Quality Assessment [80.57006406834466]
知覚品質評価(IQA)のための学習ベースアプローチは、通常、知覚品質を正確に測定するために歪んだ画像と参照画像の両方を必要とする。
本研究では,変換器を用いた全参照IQAモデルの性能について検討する。
また,全教師モデルから盲人学生モデルへの半教師付き知識蒸留に基づくIQAの手法を提案する。
論文 参考訳(メタデータ) (2022-04-27T10:21:08Z) - Can No-reference features help in Full-reference image quality
estimation? [20.491565297561912]
完全参照IQAタスクにおけるノン参照機能の利用について検討する。
我々のモデルは、多くの最先端アルゴリズムよりも高いSRCCとKRCCのスコアを達成する。
論文 参考訳(メタデータ) (2022-03-02T03:39:28Z) - Learning Transformer Features for Image Quality Assessment [53.51379676690971]
本稿では,CNNバックボーンとトランスフォーマーエンコーダを用いて特徴抽出を行うIQAフレームワークを提案する。
提案するフレームワークはFRモードとNRモードの両方と互換性があり、共同トレーニング方式が可能である。
論文 参考訳(メタデータ) (2021-12-01T13:23:00Z) - No-Reference Image Quality Assessment via Transformers, Relative
Ranking, and Self-Consistency [38.88541492121366]
No-Reference Image Quality Assessment (NR-IQA) の目的は、主観的評価に応じて知覚的画質を推定することである。
本稿では、変圧器における畳み込みニューラルネットワーク(CNN)と自己保持機構の利点を生かしたハイブリッドアプローチを利用して、NR-IQAタスクに対処する新しいモデルを提案する。
論文 参考訳(メタデータ) (2021-08-16T02:07:08Z) - MetaIQA: Deep Meta-learning for No-Reference Image Quality Assessment [73.55944459902041]
本稿では,深層メタラーニングに基づく非参照IQA尺度を提案する。
まず、様々な歪みに対してNR-IQAタスクを収集する。
次にメタラーニングを用いて、多彩な歪みによって共有される事前知識を学習する。
大規模な実験により、提案された計量は最先端の技術を大きなマージンで上回ることを示した。
論文 参考訳(メタデータ) (2020-04-11T23:36:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。