論文の概要: Content-Variant Reference Image Quality Assessment via Knowledge
Distillation
- arxiv url: http://arxiv.org/abs/2202.13123v1
- Date: Sat, 26 Feb 2022 12:04:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-01 17:10:12.032584
- Title: Content-Variant Reference Image Quality Assessment via Knowledge
Distillation
- Title(参考訳): 知識蒸留によるコンテンツ変動参照画像品質評価
- Authors: Guanghao Yin, Wei Wang, Zehuan Yuan, Chuchu Han, Wei Ji, Shouqian Sun,
Changhu Wang
- Abstract要約: 知識蒸留(CVRKD-IQA)によるコンテンツ変異参照手法を提案する。
具体的には、非整列参照(NAR)画像を用いて、高品質な画像の様々な事前分布を導入する。
我々のモデルは全てのNAR/NR-IQA SOTAを上回り、FR-IQA法と同等の性能に達することもある。
- 参考スコア(独自算出の注目度): 35.4412922147879
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generally, humans are more skilled at perceiving differences between
high-quality (HQ) and low-quality (LQ) images than directly judging the quality
of a single LQ image. This situation also applies to image quality assessment
(IQA). Although recent no-reference (NR-IQA) methods have made great progress
to predict image quality free from the reference image, they still have the
potential to achieve better performance since HQ image information is not fully
exploited. In contrast, full-reference (FR-IQA) methods tend to provide more
reliable quality evaluation, but its practicability is affected by the
requirement for pixel-level aligned reference images. To address this, we
firstly propose the content-variant reference method via knowledge distillation
(CVRKD-IQA). Specifically, we use non-aligned reference (NAR) images to
introduce various prior distributions of high-quality images. The comparisons
of distribution differences between HQ and LQ images can help our model better
assess the image quality. Further, the knowledge distillation transfers more
HQ-LQ distribution difference information from the FR-teacher to the
NAR-student and stabilizing CVRKD-IQA performance. Moreover, to fully mine the
local-global combined information, while achieving faster inference speed, our
model directly processes multiple image patches from the input with the
MLP-mixer. Cross-dataset experiments verify that our model can outperform all
NAR/NR-IQA SOTAs, even reach comparable performance with FR-IQA methods on some
occasions. Since the content-variant and non-aligned reference HQ images are
easy to obtain, our model can support more IQA applications with its relative
robustness to content variations. Our code and more detailed elaborations of
supplements are available: https://github.com/guanghaoyin/CVRKD-IQA.
- Abstract(参考訳): 一般に、人間は単一のLQ画像の画質を直接判断するよりも、高品質(HQ)画像と低品質(LQ)画像の違いを認識できる。
この状況は画像品質評価(IQA)にも適用される。
近年のno-reference (nr-iqa) 手法は参照画像から画像品質を推定する上で大きな進歩を遂げているが,hq画像情報が十分に活用されていないため,性能向上の可能性も秘めている。
対照的に、フルリファレンス(fr-iqa)法はより信頼性の高い品質評価を提供する傾向があるが、その実用性はピクセルレベルアライメント参照画像の必要性によって影響を受ける。
そこで我々はまず,知識蒸留(CVRKD-IQA)によるコンテンツ変量参照手法を提案する。
具体的には、非整列参照(NAR)画像を用いて、高品質な画像の様々な事前分布を導入する。
HQ 画像と LQ 画像の分布差の比較は,画像の質をよりよく評価する上で有効である。
さらに、知識蒸留は、FR-TeacherからNAR-Studentにより多くのHQ-LQ分布差情報を伝達し、CVRKD-IQA性能を安定化させる。
さらに,ローカル・グローバル・コンバインド情報を完全にマイニングすると同時に,高速な推論速度を実現するため,MLPミキサーを用いた入力から複数の画像パッチを直接処理する。
NAR/NR-IQA SOTAを全て上回り、FR-IQA法と同等の性能が得られる場合もあります。
コンテント変種および非アライン参照HQ画像の取得が容易であるため,本モデルでは,コンテント変種に対して比較的堅牢なIQAアプリケーションをサポートすることができる。
私たちのコードとより詳細なサプリメントは、https://github.com/guanghaoyin/CVRKD-IQA.comで公開されています。
関連論文リスト
- GenzIQA: Generalized Image Quality Assessment using Prompt-Guided Latent Diffusion Models [7.291687946822539]
最先端のNR-IQA手法の大きな欠点は、様々なIQA設定にまたがる一般化能力に制限があることである。
近年のテキスト・ツー・イメージ生成モデルでは,テキスト概念に関する細部から意味のある視覚概念が生成されている。
本研究では、学習可能な品質対応テキストプロンプトと画像のアライメントの程度を理解することにより、一般化されたIQAに対してそのような拡散モデルのデノベーションプロセスを利用する。
論文 参考訳(メタデータ) (2024-06-07T05:46:39Z) - Adaptive Image Quality Assessment via Teaching Large Multimodal Model to Compare [99.57567498494448]
我々はLMMに基づくノン参照IQAモデルであるCompare2Scoreを紹介する。
トレーニング中、同じIQAデータセットの画像を比較することで、スケールアップ比較命令を生成する。
9つのIQAデータセットの実験により、Compare2Scoreは、トレーニング中にテキスト定義の比較レベルを効果的にブリッジすることを確認した。
論文 参考訳(メタデータ) (2024-05-29T17:26:09Z) - Descriptive Image Quality Assessment in the Wild [25.503311093471076]
VLMに基づく画像品質評価(IQA)は、画像品質を言語的に記述し、人間の表現に合わせることを目指している。
野生における画像品質評価(DepictQA-Wild)について紹介する。
本手法は,評価タスクと比較タスク,簡潔かつ詳細な応答,完全参照,非参照シナリオを含む多機能IQAタスクパラダイムを含む。
論文 参考訳(メタデータ) (2024-05-29T07:49:15Z) - Cross-IQA: Unsupervised Learning for Image Quality Assessment [3.2287957986061038]
本稿では,視覚変換器(ViT)モデルに基づく非参照画像品質評価(NR-IQA)手法を提案する。
提案手法は,ラベルのない画像データから画像品質の特徴を学習することができる。
実験結果から,Cross-IQAは低周波劣化情報の評価において最先端の性能が得られることが示された。
論文 参考訳(メタデータ) (2024-05-07T13:35:51Z) - Reference-Free Image Quality Metric for Degradation and Reconstruction Artifacts [2.5282283486446753]
品質要因予測器(QF)と呼ばれる基準のない品質評価ネットワークを開発する。
我々のQF予測器は7層からなる軽量で完全な畳み込みネットワークである。
JPEG圧縮画像パッチを入力としてランダムQFを受信し、対応するQFを正確に予測するように訓練する。
論文 参考訳(メタデータ) (2024-05-01T22:28:18Z) - Comparison of No-Reference Image Quality Models via MAP Estimation in
Diffusion Latents [99.19391983670569]
NR-IQAモデルは、画像強調のための最大後部推定(MAP)フレームワークにプラグイン可能であることを示す。
異なるNR-IQAモデルは異なる拡張イメージを誘導し、最終的には精神物理学的なテストを受ける。
これにより, NR-IQAモデルの比較を行う新たな計算手法が提案される。
論文 参考訳(メタデータ) (2024-03-11T03:35:41Z) - Less is More: Learning Reference Knowledge Using No-Reference Image
Quality Assessment [58.09173822651016]
No-Reference Image Quality Assessment 設定で参照知識を学習することは可能であると論じる。
非整列参照画像から比較知識を学習するための新しいフレームワークを提案する。
8つの標準NR-IQAデータセットの実験は、最先端のNR-IQA法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2023-12-01T13:56:01Z) - Learning Transformer Features for Image Quality Assessment [53.51379676690971]
本稿では,CNNバックボーンとトランスフォーマーエンコーダを用いて特徴抽出を行うIQAフレームワークを提案する。
提案するフレームワークはFRモードとNRモードの両方と互換性があり、共同トレーニング方式が可能である。
論文 参考訳(メタデータ) (2021-12-01T13:23:00Z) - Learning Conditional Knowledge Distillation for Degraded-Reference Image
Quality Assessment [157.1292674649519]
劣化参照IQA(DR-IQA)という実用的な解を提案する。
DR-IQAはIRモデルの入力、劣化したイメージを参照として利用する。
私たちの結果は、フル参照設定のパフォーマンスに近いものもあります。
論文 参考訳(メタデータ) (2021-08-18T02:35:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。