論文の概要: Unpaired Image Enhancement with Quality-Attention Generative Adversarial
Network
- arxiv url: http://arxiv.org/abs/2012.15052v1
- Date: Wed, 30 Dec 2020 05:57:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-18 05:56:51.364182
- Title: Unpaired Image Enhancement with Quality-Attention Generative Adversarial
Network
- Title(参考訳): 品質アテンション・ジェネレーティブ・アドバイザリ・ネットワークによる未ペア画像強調
- Authors: Zhangkai Ni, Wenhan Yang, Shiqi Wang, Lin Ma, and Sam Kwong
- Abstract要約: 品質の注意を払わないデータに基づいて訓練された生成敵対ネットワーク(QAGAN)を提案する。
提案されたQAGANの重要な新規性は、ジェネレータの注入されたQAMにある。
提案手法は客観的評価と主観評価の両方において良好な性能を実現する。
- 参考スコア(独自算出の注目度): 92.01145655155374
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we aim to learn an unpaired image enhancement model, which can
enrich low-quality images with the characteristics of high-quality images
provided by users. We propose a quality attention generative adversarial
network (QAGAN) trained on unpaired data based on the bidirectional Generative
Adversarial Network (GAN) embedded with a quality attention module (QAM). The
key novelty of the proposed QAGAN lies in the injected QAM for the generator
such that it learns domain-relevant quality attention directly from the two
domains. More specifically, the proposed QAM allows the generator to
effectively select semantic-related characteristics from the spatial-wise and
adaptively incorporate style-related attributes from the channel-wise,
respectively. Therefore, in our proposed QAGAN, not only discriminators but
also the generator can directly access both domains which significantly
facilitates the generator to learn the mapping function. Extensive experimental
results show that, compared with the state-of-the-art methods based on unpaired
learning, our proposed method achieves better performance in both objective and
subjective evaluations.
- Abstract(参考訳): 本研究では,ユーザが提供する高品質画像の特徴を活かし,低画質画像のエンリッチ化を可能にする非ペア画像エンハンスメントモデルについて検討する。
本稿では,品質アテンションモジュール (QAM) を組み込んだ双方向生成支援ネットワーク (GAN) に基づく,未ペアデータに基づく品質アテンション生成敵ネットワーク (QAGAN) を提案する。
提案したQAGANの重要な新規性は、2つのドメインから直接ドメイン関連品質の注意を学習するようにジェネレータに注入されたQAMにある。
より具体的には、提案したQAMは、空間的特性から意味的特性を効果的に選択し、チャネル的にそれぞれスタイル関連属性を適応的に組み込むことを可能にする。
そこで,提案したQAGANでは,識別器だけでなく,生成器が両方のドメインに直接アクセスし,生成器がマッピング関数を学習できるようにする。
提案手法は, 未経験学習に基づく最先端の手法と比較して, 客観的・主観的評価の両面において, 優れた性能が得られることを示す。
関連論文リスト
- Adaptive Feature Selection for No-Reference Image Quality Assessment
using Contrastive Mitigating Semantic Noise Sensitivity [55.22876742378396]
本稿では,上流タスクから有害な特徴を取り除くために,コントラスト学習を利用する品質認識特徴マッチングIQA指標を提案する。
提案手法は,8つの標準NR-IQAデータセット上での最先端NR-IQA法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2023-12-11T06:50:27Z) - UNIQA: A Unified Framework for Both Full-Reference and No-Reference
Image Quality Assessment [53.895598734070695]
完全参照(FR)と非参照(NR)のIQAのための統一ネットワークを提案する。
入力画像から多レベル特徴を抽出するためにエンコーダを用いる。
FRおよびNR入力のユニバーサルアダプタとして階層自己認識(HSA)モジュールを提案する。
HSA と CSCA を採用することにより,提案ネットワークは FR と NR IQA の両方を効果的に実行することができる。
論文 参考訳(メタデータ) (2023-10-14T11:03:04Z) - DeepDC: Deep Distance Correlation as a Perceptual Image Quality
Evaluator [53.57431705309919]
ImageNet Pre-trained Deep Neural Network (DNN)は、効果的な画像品質評価(IQA)モデルを構築するための顕著な転送性を示す。
我々は,事前学習DNN機能のみに基づく新しいフル参照IQA(FR-IQA)モデルを開発した。
5つの標準IQAデータセット上で,提案した品質モデルの優位性を示すため,包括的実験を行った。
論文 参考訳(メタデータ) (2022-11-09T14:57:27Z) - StyleAM: Perception-Oriented Unsupervised Domain Adaption for
Non-reference Image Quality Assessment [23.289183622856704]
NR-IQAのための効果的な知覚指向非教師付きドメイン適応手法であるStyleAMを提案する。
StyleAMはラベル豊富なソースドメインデータからStyle AlignmentとMixupを通じてラベルのないターゲットドメインイメージに十分な知識を転送する。
今回提案したStyleAMのNR-IQAに対する有効性を示した。
論文 参考訳(メタデータ) (2022-07-29T05:51:18Z) - Attentions Help CNNs See Better: Attention-based Hybrid Image Quality
Assessment Network [20.835800149919145]
画像品質評価(IQA)アルゴリズムは、画像品質に対する人間の認識を定量化することを目的としている。
GAN(Generative Adversarial Network)によって生成された歪み画像を、一見現実的なテクスチャで評価する際の性能低下がある。
本稿では,AHIQ(Hybrid Image Quality Assessment Network)を提案する。
論文 参考訳(メタデータ) (2022-04-22T03:59:18Z) - No-Reference Image Quality Assessment via Transformers, Relative
Ranking, and Self-Consistency [38.88541492121366]
No-Reference Image Quality Assessment (NR-IQA) の目的は、主観的評価に応じて知覚的画質を推定することである。
本稿では、変圧器における畳み込みニューラルネットワーク(CNN)と自己保持機構の利点を生かしたハイブリッドアプローチを利用して、NR-IQAタスクに対処する新しいモデルを提案する。
論文 参考訳(メタデータ) (2021-08-16T02:07:08Z) - Region-Adaptive Deformable Network for Image Quality Assessment [16.03642709194366]
画像復元および強化タスクでは、生成逆転ネットワーク(GAN)によって生成された画像は、従来のCNN生成画像よりも優れた視覚性能を達成できます。
GANに基づく歪みに対するIQAネットワークの性能を向上させるための参照指向の変形可能な畳み込みを提案する。
NTIRE 2021 Perceptual Image Quality Assessment Challengeデータセットの実験結果は、RADNの優れた性能を示している。
論文 参考訳(メタデータ) (2021-04-23T13:47:20Z) - Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network [92.01145655155374]
監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:22:46Z) - Adversarial Bipartite Graph Learning for Video Domain Adaptation [50.68420708387015]
ドメイン適応技術は,異なる領域間のモデルを適応させることに重点を置いているが,ビデオ認識領域ではめったに研究されていない。
近年,映像のソースと対象映像の表現を統一するために,対角学習を活用する視覚領域適応はビデオにはあまり効果がない。
本稿では,ソースとターゲットの相互作用を直接モデル化するAdversarial Bipartite Graph (ABG)学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-31T03:48:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。