論文の概要: Content-Variant Reference Image Quality Assessment via Knowledge
Distillation
- arxiv url: http://arxiv.org/abs/2202.13123v1
- Date: Sat, 26 Feb 2022 12:04:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-01 17:10:12.032584
- Title: Content-Variant Reference Image Quality Assessment via Knowledge
Distillation
- Title(参考訳): 知識蒸留によるコンテンツ変動参照画像品質評価
- Authors: Guanghao Yin, Wei Wang, Zehuan Yuan, Chuchu Han, Wei Ji, Shouqian Sun,
Changhu Wang
- Abstract要約: 知識蒸留(CVRKD-IQA)によるコンテンツ変異参照手法を提案する。
具体的には、非整列参照(NAR)画像を用いて、高品質な画像の様々な事前分布を導入する。
我々のモデルは全てのNAR/NR-IQA SOTAを上回り、FR-IQA法と同等の性能に達することもある。
- 参考スコア(独自算出の注目度): 35.4412922147879
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generally, humans are more skilled at perceiving differences between
high-quality (HQ) and low-quality (LQ) images than directly judging the quality
of a single LQ image. This situation also applies to image quality assessment
(IQA). Although recent no-reference (NR-IQA) methods have made great progress
to predict image quality free from the reference image, they still have the
potential to achieve better performance since HQ image information is not fully
exploited. In contrast, full-reference (FR-IQA) methods tend to provide more
reliable quality evaluation, but its practicability is affected by the
requirement for pixel-level aligned reference images. To address this, we
firstly propose the content-variant reference method via knowledge distillation
(CVRKD-IQA). Specifically, we use non-aligned reference (NAR) images to
introduce various prior distributions of high-quality images. The comparisons
of distribution differences between HQ and LQ images can help our model better
assess the image quality. Further, the knowledge distillation transfers more
HQ-LQ distribution difference information from the FR-teacher to the
NAR-student and stabilizing CVRKD-IQA performance. Moreover, to fully mine the
local-global combined information, while achieving faster inference speed, our
model directly processes multiple image patches from the input with the
MLP-mixer. Cross-dataset experiments verify that our model can outperform all
NAR/NR-IQA SOTAs, even reach comparable performance with FR-IQA methods on some
occasions. Since the content-variant and non-aligned reference HQ images are
easy to obtain, our model can support more IQA applications with its relative
robustness to content variations. Our code and more detailed elaborations of
supplements are available: https://github.com/guanghaoyin/CVRKD-IQA.
- Abstract(参考訳): 一般に、人間は単一のLQ画像の画質を直接判断するよりも、高品質(HQ)画像と低品質(LQ)画像の違いを認識できる。
この状況は画像品質評価(IQA)にも適用される。
近年のno-reference (nr-iqa) 手法は参照画像から画像品質を推定する上で大きな進歩を遂げているが,hq画像情報が十分に活用されていないため,性能向上の可能性も秘めている。
対照的に、フルリファレンス(fr-iqa)法はより信頼性の高い品質評価を提供する傾向があるが、その実用性はピクセルレベルアライメント参照画像の必要性によって影響を受ける。
そこで我々はまず,知識蒸留(CVRKD-IQA)によるコンテンツ変量参照手法を提案する。
具体的には、非整列参照(NAR)画像を用いて、高品質な画像の様々な事前分布を導入する。
HQ 画像と LQ 画像の分布差の比較は,画像の質をよりよく評価する上で有効である。
さらに、知識蒸留は、FR-TeacherからNAR-Studentにより多くのHQ-LQ分布差情報を伝達し、CVRKD-IQA性能を安定化させる。
さらに,ローカル・グローバル・コンバインド情報を完全にマイニングすると同時に,高速な推論速度を実現するため,MLPミキサーを用いた入力から複数の画像パッチを直接処理する。
NAR/NR-IQA SOTAを全て上回り、FR-IQA法と同等の性能が得られる場合もあります。
コンテント変種および非アライン参照HQ画像の取得が容易であるため,本モデルでは,コンテント変種に対して比較的堅牢なIQAアプリケーションをサポートすることができる。
私たちのコードとより詳細なサプリメントは、https://github.com/guanghaoyin/CVRKD-IQA.comで公開されています。
関連論文リスト
- Comparison of No-Reference Image Quality Models via MAP Estimation in
Diffusion Latents [99.19391983670569]
NR-IQAモデルは、画像強調のための最大後部推定(MAP)フレームワークにプラグイン可能であることを示す。
異なるNR-IQAモデルは異なる拡張イメージを誘導し、最終的には精神物理学的なテストを受ける。
これにより, NR-IQAモデルの比較を行う新たな計算手法が提案される。
論文 参考訳(メタデータ) (2024-03-11T03:35:41Z) - Less is More: Learning Reference Knowledge Using No-Reference Image
Quality Assessment [58.09173822651016]
No-Reference Image Quality Assessment 設定で参照知識を学習することは可能であると論じる。
非整列参照画像から比較知識を学習するための新しいフレームワークを提案する。
8つの標準NR-IQAデータセットの実験は、最先端のNR-IQA法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2023-12-01T13:56:01Z) - SPQE: Structure-and-Perception-Based Quality Evaluation for Image
Super-Resolution [24.584839578742237]
超解像技術は画像の画質を大幅に改善し、解像度を向上した。
また、これらのアルゴリズムや生成された画像を評価するための効率的なSR画像品質評価(SR-IQA)も求めている。
深層学習ベースSRでは、生成した高品質で視覚的に喜ぶ画像は、対応する低品質の画像とは異なる構造を持つ可能性がある。
論文 参考訳(メタデータ) (2022-05-07T07:52:55Z) - Conformer and Blind Noisy Students for Improved Image Quality Assessment [80.57006406834466]
知覚品質評価(IQA)のための学習ベースアプローチは、通常、知覚品質を正確に測定するために歪んだ画像と参照画像の両方を必要とする。
本研究では,変換器を用いた全参照IQAモデルの性能について検討する。
また,全教師モデルから盲人学生モデルへの半教師付き知識蒸留に基づくIQAの手法を提案する。
論文 参考訳(メタデータ) (2022-04-27T10:21:08Z) - Can No-reference features help in Full-reference image quality
estimation? [20.491565297561912]
完全参照IQAタスクにおけるノン参照機能の利用について検討する。
我々のモデルは、多くの最先端アルゴリズムよりも高いSRCCとKRCCのスコアを達成する。
論文 参考訳(メタデータ) (2022-03-02T03:39:28Z) - Learning Transformer Features for Image Quality Assessment [53.51379676690971]
本稿では,CNNバックボーンとトランスフォーマーエンコーダを用いて特徴抽出を行うIQAフレームワークを提案する。
提案するフレームワークはFRモードとNRモードの両方と互換性があり、共同トレーニング方式が可能である。
論文 参考訳(メタデータ) (2021-12-01T13:23:00Z) - Degraded Reference Image Quality Assessment [23.871178105179883]
劣化参照IQA(DR IQA)と呼ばれる新しいパラダイムの確立に向けた最初の試みの1つを行う。
具体的には、DR IQAのアーキテクチャをレイアウトし、構成の選択を示す6ビットコードを導入する。
DR IQA専用の最初の大規模データベースを構築し,公開する。
論文 参考訳(メタデータ) (2021-10-28T05:50:59Z) - Learning Conditional Knowledge Distillation for Degraded-Reference Image
Quality Assessment [157.1292674649519]
劣化参照IQA(DR-IQA)という実用的な解を提案する。
DR-IQAはIRモデルの入力、劣化したイメージを参照として利用する。
私たちの結果は、フル参照設定のパフォーマンスに近いものもあります。
論文 参考訳(メタデータ) (2021-08-18T02:35:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。