論文の概要: Less is More: Learning Reference Knowledge Using No-Reference Image
Quality Assessment
- arxiv url: http://arxiv.org/abs/2312.00591v1
- Date: Fri, 1 Dec 2023 13:56:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-04 14:33:38.438477
- Title: Less is More: Learning Reference Knowledge Using No-Reference Image
Quality Assessment
- Title(参考訳): less is more: 参照なし画像品質評価を用いた参照知識の学習
- Authors: Xudong Li, Jingyuan Zheng, Xiawu Zheng, Runze Hu, Enwei Zhang, Yuting
Gao, Yunhang Shen, Ke Li, Yutao Liu, Pingyang Dai, Yan Zhang, Rongrong Ji
- Abstract要約: No-Reference Image Quality Assessment 設定で参照知識を学習することは可能であると論じる。
非整列参照画像から比較知識を学習するための新しいフレームワークを提案する。
8つの標準NR-IQAデータセットの実験は、最先端のNR-IQA法よりも優れた性能を示した。
- 参考スコア(独自算出の注目度): 58.09173822651016
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image Quality Assessment (IQA) with reference images have achieved great
success by imitating the human vision system, in which the image quality is
effectively assessed by comparing the query image with its pristine reference
image. However, for the images in the wild, it is quite difficult to access
accurate reference images. We argue that it is possible to learn reference
knowledge under the No-Reference Image Quality Assessment (NR-IQA) setting,
which is effective and efficient empirically. Concretely, by innovatively
introducing a novel feature distillation method in IQA, we propose a new
framework to learn comparative knowledge from non-aligned reference images. And
then, to achieve fast convergence and avoid overfitting, we further propose an
inductive bias regularization. Such a framework not only solves the congenital
defects of NR-IQA but also improves the feature extraction framework, enabling
it to express more abundant quality information. Surprisingly, our method
utilizes less input while obtaining a more significant improvement compared to
the teacher models. Extensive experiments on eight standard NR-IQA datasets
demonstrate the superior performance to the state-of-the-art NR-IQA methods,
i.e., achieving the PLCC values of 0.917 (vs. 0.884 in LIVEC) and 0.686 (vs.
0.661 in LIVEFB).
- Abstract(参考訳): 参照画像を用いた画像品質評価(IQA)は、人間の視覚システムを模倣し、クエリ画像と原始参照画像を比較して画像品質を効果的に評価することで大きな成功を収めた。
しかし、野生の画像では、正確な参照画像にアクセスすることは極めて困難である。
我々は、nr-iqa(no-reference image quality assessment)設定下で参照知識を学習することは可能であると主張している。
具体的には,新しい特徴蒸留法を革新的に導入することにより,非整合参照画像から比較知識を学ぶための新しい枠組みを提案する。
そして, 高速収束を実現し, 過度適合を避けるため, さらに帰納バイアス正規化を提案する。
このようなフレームワークは、NR-IQAの先天性欠陥を解決するだけでなく、特徴抽出フレームワークを改善し、より豊富な品質情報を表現できるようにする。
意外なことに,本手法は,教師モデルと比較して,より顕著な改善を図りつつ,少ない入力を利用する。
8つの標準NR-IQAデータセットに対する大規模な実験は、最先端のNR-IQA手法よりも優れた性能を示し、すなわち、PLCC値が0.917(LIVECでは0.884)と0.686(LIVEFBでは0.661)である。
関連論文リスト
- Comparison of No-Reference Image Quality Models via MAP Estimation in
Diffusion Latents [99.19391983670569]
NR-IQAモデルは、画像強調のための最大後部推定(MAP)フレームワークにプラグイン可能であることを示す。
異なるNR-IQAモデルは異なる拡張イメージを誘導し、最終的には精神物理学的なテストを受ける。
これにより, NR-IQAモデルの比較を行う新たな計算手法が提案される。
論文 参考訳(メタデータ) (2024-03-11T03:35:41Z) - Feature Denoising Diffusion Model for Blind Image Quality Assessment [58.5808754919597]
Blind Image Quality Assessment (BIQA) は、基準ベンチマークを使わずに、人間の知覚に合わせて画質を評価することを目的としている。
ディープラーニング BIQA の手法は、一般的に、伝達学習のための高レベルのタスクの特徴の使用に依存する。
本稿では,BIQAにおける特徴認知のための拡散モデルについて検討する。
論文 参考訳(メタデータ) (2024-01-22T13:38:24Z) - Conformer and Blind Noisy Students for Improved Image Quality Assessment [80.57006406834466]
知覚品質評価(IQA)のための学習ベースアプローチは、通常、知覚品質を正確に測定するために歪んだ画像と参照画像の両方を必要とする。
本研究では,変換器を用いた全参照IQAモデルの性能について検討する。
また,全教師モデルから盲人学生モデルへの半教師付き知識蒸留に基づくIQAの手法を提案する。
論文 参考訳(メタデータ) (2022-04-27T10:21:08Z) - Content-Variant Reference Image Quality Assessment via Knowledge
Distillation [35.4412922147879]
知識蒸留(CVRKD-IQA)によるコンテンツ変異参照手法を提案する。
具体的には、非整列参照(NAR)画像を用いて、高品質な画像の様々な事前分布を導入する。
我々のモデルは全てのNAR/NR-IQA SOTAを上回り、FR-IQA法と同等の性能に達することもある。
論文 参考訳(メタデータ) (2022-02-26T12:04:56Z) - Learning Transformer Features for Image Quality Assessment [53.51379676690971]
本稿では,CNNバックボーンとトランスフォーマーエンコーダを用いて特徴抽出を行うIQAフレームワークを提案する。
提案するフレームワークはFRモードとNRモードの両方と互換性があり、共同トレーニング方式が可能である。
論文 参考訳(メタデータ) (2021-12-01T13:23:00Z) - Learning Conditional Knowledge Distillation for Degraded-Reference Image
Quality Assessment [157.1292674649519]
劣化参照IQA(DR-IQA)という実用的な解を提案する。
DR-IQAはIRモデルの入力、劣化したイメージを参照として利用する。
私たちの結果は、フル参照設定のパフォーマンスに近いものもあります。
論文 参考訳(メタデータ) (2021-08-18T02:35:08Z) - No-Reference Image Quality Assessment via Feature Fusion and Multi-Task
Learning [29.19484863898778]
ブラインドまたはノン参照画像品質評価(NR-IQA)は基本的な問題であり、未解決であり、難しい問題である。
マルチタスク学習に基づく簡易かつ効果的な汎用的ノンリフレクション(NR)画像品質評価フレームワークを提案する。
このモデルでは、歪み型と主観的な人間のスコアを用いて画質を推定する。
論文 参考訳(メタデータ) (2020-06-06T05:04:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。