論文の概要: MANIQA: Multi-dimension Attention Network for No-Reference Image Quality
Assessment
- arxiv url: http://arxiv.org/abs/2204.08958v1
- Date: Tue, 19 Apr 2022 15:56:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-20 15:41:51.992699
- Title: MANIQA: Multi-dimension Attention Network for No-Reference Image Quality
Assessment
- Title(参考訳): manIQA: 画像品質評価のためのマルチ次元注意ネットワーク
- Authors: Sidi Yang and Tianhe Wu and Shuwei Shi and Shanshan Lao Yuan Gong and
Mingdeng Cao and Jiahao Wang and Yujiu Yang
- Abstract要約: No-Reference Image Quality Assessment (NR-IQA) は、人間の主観的知覚に応じて画像の知覚品質を評価することを目的としている。
既存のNR-IQA法は、GANに基づく歪み画像の正確な品質スコアを予測する必要性を満たすには程遠い。
本稿では,非参照画像品質評価(MANIQA)のための多次元注意ネットワークを提案する。
- 参考スコア(独自算出の注目度): 16.25123911998635
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: No-Reference Image Quality Assessment (NR-IQA) aims to assess the perceptual
quality of images in accordance with human subjective perception.
Unfortunately, existing NR-IQA methods are far from meeting the needs of
predicting accurate quality scores on GAN-based distortion images. To this end,
we propose Multi-dimension Attention Network for no-reference Image Quality
Assessment (MANIQA) to improve the performance on GAN-based distortion. We
firstly extract features via ViT, then to strengthen global and local
interactions, we propose the Transposed Attention Block (TAB) and the Scale
Swin Transformer Block (SSTB). These two modules apply attention mechanisms
across the channel and spatial dimension, respectively. In this
multi-dimensional manner, the modules cooperatively increase the interaction
among different regions of images globally and locally. Finally, a dual branch
structure for patch-weighted quality prediction is applied to predict the final
score depending on the weight of each patch's score. Experimental results
demonstrate that MANIQA outperforms state-of-the-art methods on four standard
datasets (LIVE, TID2013, CSIQ, and KADID-10K) by a large margin. Besides, our
method ranked first place in the final testing phase of the NTIRE 2022
Perceptual Image Quality Assessment Challenge Track 2: No-Reference. Codes and
models are available at https://github.com/IIGROUP/MANIQA.
- Abstract(参考訳): No-Reference Image Quality Assessment (NR-IQA) は、人間の主観的知覚に応じて画像の知覚品質を評価することを目的としている。
残念なことに、既存のNR-IQA法は、GANベースの歪み画像に対して正確な品質スコアを予測する必要性を満たすには程遠い。
そこで本研究では,ganに基づく歪みに対する性能向上のために,ノンリファレンス画像品質評価(maniqa)のためのマルチディメンションアテンションネットワークを提案する。
まず,ViTを介して特徴を抽出し,次にグローバルおよびローカルインタラクションを強化するために,Transposed Attention Block (TAB)とScale Swin Transformer Block (SSTB)を提案する。
これら2つのモジュールはそれぞれ、チャネルと空間次元にアテンション機構を適用する。
この多次元的な方法では、モジュールは協調的に画像の異なる領域間の相互作用をグローバルおよび局所的に増加させる。
最後に、パッチ重み付け品質予測のための2つの分岐構造を適用し、各パッチのスコアの重みに応じて最終スコアを予測する。
実験の結果,MANIQAは4つの標準データセット(LIVE, TID2013, CSIQ, KADID-10K)の最先端の手法よりも大きなマージンで優れていた。
また,ntire 2022画像品質評価課題トラック2:no-referenceにおいて,最終テスト段階で第1位にランクインした。
コードとモデルはhttps://github.com/iigroup/maniqaで入手できる。
関連論文リスト
- Adaptive Feature Selection for No-Reference Image Quality Assessment
using Contrastive Mitigating Semantic Noise Sensitivity [55.22876742378396]
本稿では,上流タスクから有害な特徴を取り除くために,コントラスト学習を利用する品質認識特徴マッチングIQA指標を提案する。
提案手法は,8つの標準NR-IQAデータセット上での最先端NR-IQA法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2023-12-11T06:50:27Z) - UNIQA: A Unified Framework for Both Full-Reference and No-Reference
Image Quality Assessment [53.895598734070695]
完全参照(FR)と非参照(NR)のIQAのための統一ネットワークを提案する。
入力画像から多レベル特徴を抽出するためにエンコーダを用いる。
FRおよびNR入力のユニバーサルアダプタとして階層自己認識(HSA)モジュールを提案する。
HSA と CSCA を採用することにより,提案ネットワークは FR と NR IQA の両方を効果的に実行することができる。
論文 参考訳(メタデータ) (2023-10-14T11:03:04Z) - Assessor360: Multi-sequence Network for Blind Omnidirectional Image
Quality Assessment [50.82681686110528]
Blind Omnidirectional Image Quality Assessment (BOIQA)は、全方位画像(ODI)の人間の知覚品質を客観的に評価することを目的としている。
ODIの品質評価は、既存のBOIQAパイプラインがオブザーバのブラウジングプロセスのモデリングを欠いているという事実によって著しく妨げられている。
Assessor360と呼ばれるBOIQAのための新しいマルチシーケンスネットワークを提案する。
論文 参考訳(メタデータ) (2023-05-18T13:55:28Z) - End-to-end deep multi-score model for No-reference stereoscopic image
quality assessment [6.254148286968409]
我々は、深層多スコア畳み込みニューラルネットワーク(CNN)を用いて、参照なしで立体画像の品質を推定する。
まず、左の視点の質を予測し、次に、左の視点の質を予測し、第3と第4に、ステレオ視点の質とグローバルな品質をそれぞれ予測し、グローバルスコアを究極の品質とする。
論文 参考訳(メタデータ) (2022-11-02T16:45:35Z) - Image Quality Assessment with Gradient Siamese Network [8.958447396656581]
画像品質評価のためのグラディエント・シームズ・ネットワーク(GSN)を提案する。
画像ペアに隠された意味的特徴と細部の違いの両方を得るために、中央微分畳み込みを利用する。
ネットワークが抽出した低レベル,中レベル,高レベルの特徴に対して,多レベル融合法を革新的に設計する。
論文 参考訳(メタデータ) (2022-08-08T12:10:38Z) - Attentions Help CNNs See Better: Attention-based Hybrid Image Quality
Assessment Network [20.835800149919145]
画像品質評価(IQA)アルゴリズムは、画像品質に対する人間の認識を定量化することを目的としている。
GAN(Generative Adversarial Network)によって生成された歪み画像を、一見現実的なテクスチャで評価する際の性能低下がある。
本稿では,AHIQ(Hybrid Image Quality Assessment Network)を提案する。
論文 参考訳(メタデータ) (2022-04-22T03:59:18Z) - Learning Transformer Features for Image Quality Assessment [53.51379676690971]
本稿では,CNNバックボーンとトランスフォーマーエンコーダを用いて特徴抽出を行うIQAフレームワークを提案する。
提案するフレームワークはFRモードとNRモードの両方と互換性があり、共同トレーニング方式が可能である。
論文 参考訳(メタデータ) (2021-12-01T13:23:00Z) - MUSIQ: Multi-scale Image Quality Transformer [22.908901641767688]
現在のIQA法は畳み込みニューラルネットワーク(CNN)に基づいている
マルチスケール画像品質変換器(MUSIQ)を設計し,サイズやアスペクト比の異なるネイティブ解像度画像を処理する。
提案手法は,マルチスケールの画像表現により,様々な粒度で画像品質を捉えることができる。
論文 参考訳(メタデータ) (2021-08-12T23:36:22Z) - Region-Adaptive Deformable Network for Image Quality Assessment [16.03642709194366]
画像復元および強化タスクでは、生成逆転ネットワーク(GAN)によって生成された画像は、従来のCNN生成画像よりも優れた視覚性能を達成できます。
GANに基づく歪みに対するIQAネットワークの性能を向上させるための参照指向の変形可能な畳み込みを提案する。
NTIRE 2021 Perceptual Image Quality Assessment Challengeデータセットの実験結果は、RADNの優れた性能を示している。
論文 参考訳(メタデータ) (2021-04-23T13:47:20Z) - Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network [92.01145655155374]
監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:22:46Z) - Learning Deep Interleaved Networks with Asymmetric Co-Attention for
Image Restoration [65.11022516031463]
本稿では,高品質(本社)画像再構成のために,異なる状態の情報をどのように組み合わせるべきかを学習するディープインターリーブドネットワーク(DIN)を提案する。
本稿では,各インターリーブノードにアタッチメントされた非対称なコアテンション(AsyCA)を提案し,その特性依存性をモデル化する。
提案したDINはエンドツーエンドで訓練でき、様々な画像復元タスクに適用できる。
論文 参考訳(メタデータ) (2020-10-29T15:32:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。