論文の概要: Conformer and Blind Noisy Students for Improved Image Quality Assessment
- arxiv url: http://arxiv.org/abs/2204.12819v1
- Date: Wed, 27 Apr 2022 10:21:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-28 14:06:12.803312
- Title: Conformer and Blind Noisy Students for Improved Image Quality Assessment
- Title(参考訳): 画像品質向上のためのコンフォーマーとブラインドノイズ学生
- Authors: Marcos V. Conde, Maxime Burchi, Radu Timofte
- Abstract要約: 知覚品質評価(IQA)のための学習ベースアプローチは、通常、知覚品質を正確に測定するために歪んだ画像と参照画像の両方を必要とする。
本研究では,変換器を用いた全参照IQAモデルの性能について検討する。
また,全教師モデルから盲人学生モデルへの半教師付き知識蒸留に基づくIQAの手法を提案する。
- 参考スコア(独自算出の注目度): 80.57006406834466
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Generative models for image restoration, enhancement, and generation have
significantly improved the quality of the generated images. Surprisingly, these
models produce more pleasant images to the human eye than other methods, yet,
they may get a lower perceptual quality score using traditional perceptual
quality metrics such as PSNR or SSIM. Therefore, it is necessary to develop a
quantitative metric to reflect the performance of new algorithms, which should
be well-aligned with the person's mean opinion score (MOS). Learning-based
approaches for perceptual image quality assessment (IQA) usually require both
the distorted and reference image for measuring the perceptual quality
accurately. However, commonly only the distorted or generated image is
available. In this work, we explore the performance of transformer-based
full-reference IQA models. We also propose a method for IQA based on
semi-supervised knowledge distillation from full-reference teacher models into
blind student models using noisy pseudo-labeled data. Our approaches achieved
competitive results on the NTIRE 2022 Perceptual Image Quality Assessment
Challenge: our full-reference model was ranked 4th, and our blind noisy student
was ranked 3rd among 70 participants, each in their respective track.
- Abstract(参考訳): 画像復元,強調,生成のための生成モデルは生成画像の品質を大幅に向上させた。
驚くべきことに、これらのモデルは人間の目にとって他の方法よりも快適な画像を生成するが、PSNRやSSIMのような従来の知覚品質指標を使用して、知覚品質スコアを低くすることができる。
したがって、人の平均意見スコア(mos)とよく一致すべき新しいアルゴリズムの性能を反映する定量的指標を開発する必要がある。
知覚品質評価(IQA)のための学習ベースアプローチは、通常、知覚品質を正確に測定するために歪んだ画像と参照画像の両方を必要とする。
しかし、一般的には歪んだ画像や生成された画像のみが利用可能である。
本稿では,トランスフォーマティブベースフルリファレンス iqa モデルの性能について検討する。
また,疑似ラベルデータを用いた教師モデルから視覚障害者モデルへの半教師付き知識蒸留に基づく iqa の手法を提案する。
提案手法は,ntire 2022の知覚的画像品質評価課題において,総合的参照モデルが4位,ブラインドノイズの学生が70名中3位,各トラックが3位であった。
関連論文リスト
- Sliced Maximal Information Coefficient: A Training-Free Approach for Image Quality Assessment Enhancement [12.628718661568048]
我々は,人間の品質評価の過程を模倣する,一般化された視覚的注意度推定戦略を検討することを目的とする。
特に、劣化画像と参照画像の統計的依存性を測定することによって、人間の注意生成をモデル化する。
既存のIQAモデルのアテンションモジュールを組み込んだ場合、既存のIQAモデルの性能を一貫して改善できることを示す実験結果が得られた。
論文 参考訳(メタデータ) (2024-08-19T11:55:32Z) - Multi-Modal Prompt Learning on Blind Image Quality Assessment [65.0676908930946]
画像品質評価(IQA)モデルは意味情報から大きな恩恵を受け、異なる種類のオブジェクトを明瞭に扱うことができる。
十分な注釈付きデータが不足している従来の手法では、セマンティックな認識を得るために、CLIPイメージテキスト事前学習モデルをバックボーンとして使用していた。
近年のアプローチでは、このミスマッチに即時技術を使って対処する試みがあるが、これらの解決策には欠点がある。
本稿では、IQAのための革新的なマルチモーダルプロンプトベースの手法を提案する。
論文 参考訳(メタデータ) (2024-04-23T11:45:32Z) - ARNIQA: Learning Distortion Manifold for Image Quality Assessment [28.773037051085318]
No-Reference Image Quality Assessment (NR-IQA) は、高品質な参照画像を必要としない、人間の知覚に合わせて画像品質を測定する手法を開発することを目的としている。
本研究では、画像歪み多様体をモデル化し、本質的な表現を得るための自己教師型アプローチ ARNIQA を提案する。
論文 参考訳(メタデータ) (2023-10-20T17:22:25Z) - Quality-aware Pre-trained Models for Blind Image Quality Assessment [15.566552014530938]
ブラインド画像品質評価(BIQA)は,画像の知覚品質を自動的に評価することを目的としている。
本稿では,BIQA用にカスタマイズされたプレテキストタスクを用いて,自己教師型学習方式でこの問題を解決することを提案する。
論文 参考訳(メタデータ) (2023-03-01T13:52:40Z) - Perceptual Attacks of No-Reference Image Quality Models with
Human-in-the-Loop [113.75573175709573]
NR-IQAモデルの知覚的堅牢性を調べるための最初の試みの1つを行う。
我々は,4つの完全参照IQAモデルの下で,知識駆動のNR-IQA法とデータ駆動のNR-IQA法を検証した。
4つのNR-IQAモデルは全て、提案した知覚的攻撃に対して脆弱であることがわかった。
論文 参考訳(メタデータ) (2022-10-03T13:47:16Z) - Confusing Image Quality Assessment: Towards Better Augmented Reality
Experience [96.29124666702566]
我々はAR技術を仮想シーンと実シーンの重ね合わせとみなし、視覚的混乱を基本的な理論として紹介する。
ConFusing Image Quality Assessment (CFIQA)データベースが構築され、600個の参照画像と300個の歪画像とをペアに混合して生成する。
また、難解な画像品質をよりよく評価するために、CFIQAと呼ばれる客観的な計量も提案されている。
論文 参考訳(メタデータ) (2022-04-11T07:03:06Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - No-Reference Image Quality Assessment via Feature Fusion and Multi-Task
Learning [29.19484863898778]
ブラインドまたはノン参照画像品質評価(NR-IQA)は基本的な問題であり、未解決であり、難しい問題である。
マルチタスク学習に基づく簡易かつ効果的な汎用的ノンリフレクション(NR)画像品質評価フレームワークを提案する。
このモデルでは、歪み型と主観的な人間のスコアを用いて画質を推定する。
論文 参考訳(メタデータ) (2020-06-06T05:04:10Z) - Uncertainty-Aware Blind Image Quality Assessment in the Laboratory and
Wild [98.48284827503409]
我々は,テキスト化BIQAモデルを開発し,それを合成的および現実的歪みの両方で訓練するアプローチを提案する。
我々は、多数の画像ペアに対してBIQAのためのディープニューラルネットワークを最適化するために、忠実度損失を用いる。
6つのIQAデータベースの実験は、実験室と野生動物における画像品質を盲目的に評価する学習手法の可能性を示唆している。
論文 参考訳(メタデータ) (2020-05-28T13:35:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。