論文の概要: Full-Reference Calibration-Free Image Quality Assessment
- arxiv url: http://arxiv.org/abs/2205.12129v1
- Date: Tue, 24 May 2022 15:06:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-25 15:05:23.943114
- Title: Full-Reference Calibration-Free Image Quality Assessment
- Title(参考訳): フルリファレンスキャリブレーションフリー画像品質評価
- Authors: Elio D. Di Claudio, Paolo Giannitrapani and Giovanni Jacovitti
- Abstract要約: フルリファレンス(FR)技術は、キャリブレーションを使わずに、人間のスコアと線形に相関する推定値を提供する。
その結果、キャリブレーションのないFR IQA法は、異なる画像システムと異なるVDとの相互運用性が重要な要件であるアプリケーションに適している。
- 参考スコア(独自算出の注目度): 2.5782420501870287
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One major problem of objective Image Quality Assessment (IQA) methods is the
lack of linearity of their quality estimates with respect to scores expressed
by human subjects. For this reason, usually IQA metrics undergo a calibration
process based on subjective quality examples. However, example-based training
makes generalization problematic, hampering result comparison across different
applications and operative conditions. In this paper, new Full Reference (FR)
techniques, providing estimates linearly correlated with human scores without
using calibration are introduced. To reach this objective, these techniques are
deeply rooted on principles and theoretical constraints. Restricting the
interest on the IQA of the set of natural images, it is first recognized that
application of estimation theory and psycho physical principles to images
degraded by Gaussian blur leads to a so-called canonical IQA method, whose
estimates are not only highly linearly correlated to subjective scores, but are
also straightforwardly related to the Viewing Distance (VD). Then, it is shown
that mainstream IQA methods can be reconducted to the canonical method applying
a preliminary metric conversion based on a unique specimen image. The
application of this scheme is then extended to a significant class of degraded
images other than Gaussian blur, including noisy and compressed images. The
resulting calibration-free FR IQA methods are suited for applications where
comparability and interoperability across different imaging systems and on
different VDs is a major requirement. A comparison of their statistical
performance with respect to some conventional calibration prone methods is
finally provided.
- Abstract(参考訳): 客観的画像品質評価法(objective image quality assessment, iqa)の大きな問題の1つは、被験者が表したスコアに対する品質推定の線形性の欠如である。
このため、IQAメトリクスは通常、主観的品質の例に基づく校正プロセスを行う。
しかし、サンプルベーストレーニングは一般化を問題にし、異なるアプリケーションと手術条件で結果の比較を妨げている。
本稿では、校正を使わずに人間のスコアと線形に相関する推定を行う新しいフルリファレンス(fr)手法を提案する。
この目的を達成するために、これらの手法は原則と理論上の制約に深く根ざしている。
自然画像集合のIQAに対する関心を制限し、ガウスのぼかしによって劣化した画像に対する推定理論と心理物理原理の適用は、推定が主観的スコアと高度に線形に相関するだけでなく、ビューング距離(VD)とも直接的に関連しているいわゆる標準IQA法に導かれることを最初に認識した。
次に,一意な標本画像に基づく予備的計量変換を適用した正準法に対して,主流の iqa 法を再現できることを示す。
このスキームの適用は、ノイズや圧縮された画像を含むガウスのぼやけ以外の重要な種類の劣化画像に拡張される。
その結果、キャリブレーションのないFR IQA法は、異なる画像システムと異なるVD上での互換性と相互運用性が重要な要件であるアプリケーションに適している。
従来のキャリブレーション手法との比較を行った。
関連論文リスト
- Sliced Maximal Information Coefficient: A Training-Free Approach for Image Quality Assessment Enhancement [12.628718661568048]
我々は,人間の品質評価の過程を模倣する,一般化された視覚的注意度推定戦略を検討することを目的とする。
特に、劣化画像と参照画像の統計的依存性を測定することによって、人間の注意生成をモデル化する。
既存のIQAモデルのアテンションモジュールを組み込んだ場合、既存のIQAモデルの性能を一貫して改善できることを示す実験結果が得られた。
論文 参考訳(メタデータ) (2024-08-19T11:55:32Z) - Reference-Free Image Quality Metric for Degradation and Reconstruction Artifacts [2.5282283486446753]
品質要因予測器(QF)と呼ばれる基準のない品質評価ネットワークを開発する。
我々のQF予測器は7層からなる軽量で完全な畳み込みネットワークである。
JPEG圧縮画像パッチを入力としてランダムQFを受信し、対応するQFを正確に予測するように訓練する。
論文 参考訳(メタデータ) (2024-05-01T22:28:18Z) - Contrastive Pre-Training with Multi-View Fusion for No-Reference Point Cloud Quality Assessment [49.36799270585947]
No-Reference Point Cloud Quality Assessment (NR-PCQA) は、歪んだ点雲の知覚的品質を、参照なしで自動的に評価することを目的としている。
我々は,PCQA(CoPA)に適した新しいコントラスト付き事前学習フレームワークを提案する。
提案手法は,最新のPCQA手法よりも高い性能を示す。
論文 参考訳(メタデータ) (2024-03-15T07:16:07Z) - Pairwise Comparisons Are All You Need [22.798716660911833]
ブラインド画像品質評価(BIQA)アプローチは、様々な画像に一様に適用される一般的な品質基準に依存しているため、現実のシナリオでは不足することが多い。
本稿では、従来のBIQAの制限を回避すべく設計されたペアワイズ比較フレームワークであるPICNIQを紹介する。
PICNIQは、サイコメトリックスケーリングアルゴリズムを用いることで、対比較をジャストオブジェクタブルディファレンス(JOD)の品質スコアに変換し、画像品質の粒度と解釈可能な指標を提供する。
論文 参考訳(メタデータ) (2024-03-13T23:43:36Z) - Comparison of No-Reference Image Quality Models via MAP Estimation in
Diffusion Latents [99.19391983670569]
NR-IQAモデルは、画像強調のための最大後部推定(MAP)フレームワークにプラグイン可能であることを示す。
異なるNR-IQAモデルは異なる拡張イメージを誘導し、最終的には精神物理学的なテストを受ける。
これにより, NR-IQAモデルの比較を行う新たな計算手法が提案される。
論文 参考訳(メタデータ) (2024-03-11T03:35:41Z) - PIQI: Perceptual Image Quality Index based on Ensemble of Gaussian
Process Regression [2.9412539021452715]
デジタル画像の品質を評価するためにPIQI(Perceptual Image Quality Index)を提案する。
PIQIの性能は6つのベンチマークデータベースでチェックされ、12の最先端の手法と比較される。
論文 参考訳(メタデータ) (2023-05-16T06:44:17Z) - Conformer and Blind Noisy Students for Improved Image Quality Assessment [80.57006406834466]
知覚品質評価(IQA)のための学習ベースアプローチは、通常、知覚品質を正確に測定するために歪んだ画像と参照画像の両方を必要とする。
本研究では,変換器を用いた全参照IQAモデルの性能について検討する。
また,全教師モデルから盲人学生モデルへの半教師付き知識蒸留に基づくIQAの手法を提案する。
論文 参考訳(メタデータ) (2022-04-27T10:21:08Z) - Learning Conditional Knowledge Distillation for Degraded-Reference Image
Quality Assessment [157.1292674649519]
劣化参照IQA(DR-IQA)という実用的な解を提案する。
DR-IQAはIRモデルの入力、劣化したイメージを参照として利用する。
私たちの結果は、フル参照設定のパフォーマンスに近いものもあります。
論文 参考訳(メタデータ) (2021-08-18T02:35:08Z) - No-Reference Image Quality Assessment by Hallucinating Pristine Features [24.35220427707458]
本稿では,特徴レベルの擬似参照(PR)幻覚を用いた非参照画像品質評価(IQA)手法を提案する。
提案手法の有効性を4つのIQAデータベースで実証した。
論文 参考訳(メタデータ) (2021-08-09T16:48:34Z) - Uncertainty-Aware Blind Image Quality Assessment in the Laboratory and
Wild [98.48284827503409]
我々は,テキスト化BIQAモデルを開発し,それを合成的および現実的歪みの両方で訓練するアプローチを提案する。
我々は、多数の画像ペアに対してBIQAのためのディープニューラルネットワークを最適化するために、忠実度損失を用いる。
6つのIQAデータベースの実験は、実験室と野生動物における画像品質を盲目的に評価する学習手法の可能性を示唆している。
論文 参考訳(メタデータ) (2020-05-28T13:35:23Z) - MetaIQA: Deep Meta-learning for No-Reference Image Quality Assessment [73.55944459902041]
本稿では,深層メタラーニングに基づく非参照IQA尺度を提案する。
まず、様々な歪みに対してNR-IQAタスクを収集する。
次にメタラーニングを用いて、多彩な歪みによって共有される事前知識を学習する。
大規模な実験により、提案された計量は最先端の技術を大きなマージンで上回ることを示した。
論文 参考訳(メタデータ) (2020-04-11T23:36:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。