論文の概要: Re-IQA: Unsupervised Learning for Image Quality Assessment in the Wild
- arxiv url: http://arxiv.org/abs/2304.00451v2
- Date: Sun, 28 May 2023 04:09:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-31 00:59:03.937109
- Title: Re-IQA: Unsupervised Learning for Image Quality Assessment in the Wild
- Title(参考訳): Re-IQA: 野生の画像品質評価のための教師なし学習
- Authors: Avinab Saha, Sandeep Mishra, Alan C. Bovik
- Abstract要約: 教師なし環境で高レベルのコンテンツと低レベルの画像品質特徴を学習するために、2つの異なるエンコーダを訓練するためのMixture of Expertsアプローチを提案する。
本稿では,Re-IQAフレームワークから得られた高次・低次画像表現を,線形回帰モデルをトレーニングするために展開する。
本手法は,大規模画像品質評価データベース上での最先端性能を実現する。
- 参考スコア(独自算出の注目度): 38.197794061203055
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Automatic Perceptual Image Quality Assessment is a challenging problem that
impacts billions of internet, and social media users daily. To advance research
in this field, we propose a Mixture of Experts approach to train two separate
encoders to learn high-level content and low-level image quality features in an
unsupervised setting. The unique novelty of our approach is its ability to
generate low-level representations of image quality that are complementary to
high-level features representing image content. We refer to the framework used
to train the two encoders as Re-IQA. For Image Quality Assessment in the Wild,
we deploy the complementary low and high-level image representations obtained
from the Re-IQA framework to train a linear regression model, which is used to
map the image representations to the ground truth quality scores, refer Figure
1. Our method achieves state-of-the-art performance on multiple large-scale
image quality assessment databases containing both real and synthetic
distortions, demonstrating how deep neural networks can be trained in an
unsupervised setting to produce perceptually relevant representations. We
conclude from our experiments that the low and high-level features obtained are
indeed complementary and positively impact the performance of the linear
regressor. A public release of all the codes associated with this work will be
made available on GitHub.
- Abstract(参考訳): 自動知覚画像品質評価は、何十億ものインターネットとソーシャルメディアユーザーに影響を与える難しい問題である。
そこで本研究では, 2つの異なるエンコーダを訓練し, 教師なし設定で高レベルコンテンツと低レベル画像品質特徴を学習する, 専門家の混合手法を提案する。
このアプローチのユニークな特徴は、画像コンテンツを表すハイレベルな特徴を補完する低レベルの画像品質表現を生成する能力である。
2つのエンコーダをトレーニングするフレームワークをRe-IQAと呼ぶ。
野生の画質評価のために、re-iqaフレームワークから得られた補完的な低レベルおよび高レベル画像表現をデプロイして、画像表現を地上の真理品質スコアにマッピングするために使用される線形回帰モデルをトレーニングします。
提案手法は,複数の大規模画像品質評価データベースにおいて,実歪みと合成歪みの両方を含む最先端のニューラルネットワークを教師なし環境でトレーニングし,知覚に関連のある表現を生成する方法を示す。
得られた低レベル・高レベルの特徴は相補的であり,線形回帰器の性能に肯定的な影響を及ぼす。
この作業に関連するすべてのコードのパブリックリリースは、githubで公開されている。
関連論文リスト
- Q-Ground: Image Quality Grounding with Large Multi-modality Models [61.72022069880346]
Q-Groundは、大規模な視覚的品質グラウンドに取り組むための最初のフレームワークである。
Q-Groundは、大規模なマルチモダリティモデルと詳細な視覚的品質分析を組み合わせる。
コントリビューションの中心は、QGround-100Kデータセットの導入です。
論文 参考訳(メタデータ) (2024-07-24T06:42:46Z) - Dual-Branch Network for Portrait Image Quality Assessment [76.27716058987251]
ポートレート画像品質評価のためのデュアルブランチネットワーク(PIQA)を提案する。
我々は2つのバックボーンネットワーク(textiti.e., Swin Transformer-B)を使用して、肖像画全体と顔画像から高品質な特徴を抽出する。
我々は、画像シーンの分類と品質評価モデルであるLIQEを利用して、品質認識とシーン固有の特徴を補助的特徴として捉えている。
論文 参考訳(メタデータ) (2024-05-14T12:43:43Z) - Learning Generalizable Perceptual Representations for Data-Efficient
No-Reference Image Quality Assessment [7.291687946822539]
最先端のNR-IQA技術の大きな欠点は、多数の人間のアノテーションに依存していることである。
低レベルな特徴の学習を、新しい品質に配慮したコントラスト損失を導入することで、歪みタイプの学習を可能にする。
両経路からゼロショット品質の予測を、完全に盲目な環境で設計する。
論文 参考訳(メタデータ) (2023-12-08T05:24:21Z) - ARNIQA: Learning Distortion Manifold for Image Quality Assessment [28.773037051085318]
No-Reference Image Quality Assessment (NR-IQA) は、高品質な参照画像を必要としない、人間の知覚に合わせて画像品質を測定する手法を開発することを目的としている。
本研究では、画像歪み多様体をモデル化し、本質的な表現を得るための自己教師型アプローチ ARNIQA を提案する。
論文 参考訳(メタデータ) (2023-10-20T17:22:25Z) - MSTRIQ: No Reference Image Quality Assessment Based on Swin Transformer
with Multi-Stage Fusion [8.338999282303755]
本稿では,Swin Transformerに基づく新しいアルゴリズムを提案する。
ローカル機能とグローバル機能の両方から情報を集約して、品質をより正確に予測する。
NTIRE 2022 Perceptual Image Quality Assessment Challengeのノーレファレンストラックで2位。
論文 参考訳(メタデータ) (2022-05-20T11:34:35Z) - Learning Transformer Features for Image Quality Assessment [53.51379676690971]
本稿では,CNNバックボーンとトランスフォーマーエンコーダを用いて特徴抽出を行うIQAフレームワークを提案する。
提案するフレームワークはFRモードとNRモードの両方と互換性があり、共同トレーニング方式が可能である。
論文 参考訳(メタデータ) (2021-12-01T13:23:00Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network [92.01145655155374]
監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:22:46Z) - No-Reference Image Quality Assessment via Feature Fusion and Multi-Task
Learning [29.19484863898778]
ブラインドまたはノン参照画像品質評価(NR-IQA)は基本的な問題であり、未解決であり、難しい問題である。
マルチタスク学習に基づく簡易かつ効果的な汎用的ノンリフレクション(NR)画像品質評価フレームワークを提案する。
このモデルでは、歪み型と主観的な人間のスコアを用いて画質を推定する。
論文 参考訳(メタデータ) (2020-06-06T05:04:10Z) - Uncertainty-Aware Blind Image Quality Assessment in the Laboratory and
Wild [98.48284827503409]
我々は,テキスト化BIQAモデルを開発し,それを合成的および現実的歪みの両方で訓練するアプローチを提案する。
我々は、多数の画像ペアに対してBIQAのためのディープニューラルネットワークを最適化するために、忠実度損失を用いる。
6つのIQAデータベースの実験は、実験室と野生動物における画像品質を盲目的に評価する学習手法の可能性を示唆している。
論文 参考訳(メタデータ) (2020-05-28T13:35:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。