論文の概要: MetaIQA: Deep Meta-learning for No-Reference Image Quality Assessment
- arxiv url: http://arxiv.org/abs/2004.05508v1
- Date: Sat, 11 Apr 2020 23:36:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 13:09:31.322555
- Title: MetaIQA: Deep Meta-learning for No-Reference Image Quality Assessment
- Title(参考訳): MetaIQA: 画像品質評価のための深層メタ学習
- Authors: Hancheng Zhu, Leida Li, Jinjian Wu, Weisheng Dong, and Guangming Shi
- Abstract要約: 本稿では,深層メタラーニングに基づく非参照IQA尺度を提案する。
まず、様々な歪みに対してNR-IQAタスクを収集する。
次にメタラーニングを用いて、多彩な歪みによって共有される事前知識を学習する。
大規模な実験により、提案された計量は最先端の技術を大きなマージンで上回ることを示した。
- 参考スコア(独自算出の注目度): 73.55944459902041
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, increasing interest has been drawn in exploiting deep convolutional
neural networks (DCNNs) for no-reference image quality assessment (NR-IQA).
Despite of the notable success achieved, there is a broad consensus that
training DCNNs heavily relies on massive annotated data. Unfortunately, IQA is
a typical small sample problem. Therefore, most of the existing DCNN-based IQA
metrics operate based on pre-trained networks. However, these pre-trained
networks are not designed for IQA task, leading to generalization problem when
evaluating different types of distortions. With this motivation, this paper
presents a no-reference IQA metric based on deep meta-learning. The underlying
idea is to learn the meta-knowledge shared by human when evaluating the quality
of images with various distortions, which can then be adapted to unknown
distortions easily. Specifically, we first collect a number of NR-IQA tasks for
different distortions. Then meta-learning is adopted to learn the prior
knowledge shared by diversified distortions. Finally, the quality prior model
is fine-tuned on a target NR-IQA task for quickly obtaining the quality model.
Extensive experiments demonstrate that the proposed metric outperforms the
state-of-the-arts by a large margin. Furthermore, the meta-model learned from
synthetic distortions can also be easily generalized to authentic distortions,
which is highly desired in real-world applications of IQA metrics.
- Abstract(参考訳): 近年,非参照画像品質評価(NR-IQA)において,ディープ畳み込みニューラルネットワーク(DCNN)の活用への関心が高まっている。
顕著な成功にもかかわらず、DCNNのトレーニングは大量の注釈付きデータに大きく依存しているという広い意見がある。
残念なことに、IQAは典型的な小さなサンプル問題である。
したがって、既存のDCNNベースのIQAメトリクスのほとんどは、事前訓練されたネットワークに基づいて動作する。
しかし、これらの事前学習されたネットワークはIQAタスクのために設計されておらず、異なる種類の歪みを評価する際の一般化問題を引き起こす。
本稿では,深層メタラーニングに基づく非参照IQA尺度を提案する。
基本的な考え方は、画像の品質を様々な歪みで評価する際に、人間が共有するメタ知識を学習することであり、それによって未知の歪みに容易に適応できる。
具体的には、まず様々な歪みに対してNR-IQAタスクを収集する。
次に、多様な歪みによって共有される事前知識を学ぶためにメタラーニングを採用する。
最後に、品質事前モデルをNR-IQAタスクに微調整して、品質モデルを迅速に取得する。
大規模な実験により、提案された計量は最先端の技術を大きなマージンで上回ることを示した。
さらに、合成歪みから得られたメタモデルは、IQAメトリクスの実際の応用において非常に望まれる真の歪みに容易に一般化することができる。
関連論文リスト
- DP-IQA: Utilizing Diffusion Prior for Blind Image Quality Assessment in the Wild [54.139923409101044]
野生のブラインド画像品質評価(IQA)は重大な課題を呈している。
大規模なトレーニングデータの収集が困難であることを考えると、厳密な一般化モデルを開発するために限られたデータを活用することは、未解決の問題である。
事前訓練されたテキスト・ツー・イメージ(T2I)拡散モデルの堅牢な画像認識能力により,新しいIQA法,拡散先行に基づくIQAを提案する。
論文 参考訳(メタデータ) (2024-05-30T12:32:35Z) - Large Multi-modality Model Assisted AI-Generated Image Quality Assessment [53.182136445844904]
本稿では,AI生成画像品質評価モデル(MA-AGIQA)を提案する。
セマンティックインフォームドガイダンスを使用して意味情報を感知し、慎重に設計されたテキストプロンプトを通してセマンティックベクターを抽出する。
最先端のパフォーマンスを実現し、AI生成画像の品質を評価する上で優れた一般化能力を示す。
論文 参考訳(メタデータ) (2024-04-27T02:40:36Z) - Transformer-based No-Reference Image Quality Assessment via Supervised
Contrastive Learning [36.695247860715874]
本稿では,新しいコントラスト学習 (Contrastive Learning, SCL) と NR-IQA モデル SaTQA を提案する。
まず、SCLによる大規模合成データセット上にモデルをトレーニングし、様々な歪みタイプとレベルの画像の劣化特徴を抽出する。
画像から歪み情報を抽出するために,CNNインダクティブバイアスとTransformerの長期依存性モデリング機能を組み合わせることで,マルチストリームブロック(MSB)を組み込んだバックボーンネットワークを提案する。
7つの標準IQAデータセットの実験結果から、SaTQAは合成データセットと認証データセットの両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-12-12T06:01:41Z) - Perceptual Attacks of No-Reference Image Quality Models with
Human-in-the-Loop [113.75573175709573]
NR-IQAモデルの知覚的堅牢性を調べるための最初の試みの1つを行う。
我々は,4つの完全参照IQAモデルの下で,知識駆動のNR-IQA法とデータ駆動のNR-IQA法を検証した。
4つのNR-IQAモデルは全て、提案した知覚的攻撃に対して脆弱であることがわかった。
論文 参考訳(メタデータ) (2022-10-03T13:47:16Z) - Learning Transformer Features for Image Quality Assessment [53.51379676690971]
本稿では,CNNバックボーンとトランスフォーマーエンコーダを用いて特徴抽出を行うIQAフレームワークを提案する。
提案するフレームワークはFRモードとNRモードの両方と互換性があり、共同トレーニング方式が可能である。
論文 参考訳(メタデータ) (2021-12-01T13:23:00Z) - Degraded Reference Image Quality Assessment [23.871178105179883]
劣化参照IQA(DR IQA)と呼ばれる新しいパラダイムの確立に向けた最初の試みの1つを行う。
具体的には、DR IQAのアーキテクチャをレイアウトし、構成の選択を示す6ビットコードを導入する。
DR IQA専用の最初の大規模データベースを構築し,公開する。
論文 参考訳(メタデータ) (2021-10-28T05:50:59Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - Norm-in-Norm Loss with Faster Convergence and Better Performance for
Image Quality Assessment [20.288424566444224]
画像品質評価(IQA)モデルにおける損失関数の設計における正規化について検討する。
結果として生じるNorm-in-Normの損失は、主観的品質スコアに対する線形予測をIQAモデルに促す。
2つの関連するデータセットの実験では、MAEやMSEの損失と比較して、新しい損失はIQAモデルを約10倍の速度で収束させることが示されている。
論文 参考訳(メタデータ) (2020-08-10T04:01:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。