論文の概要: Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network
- arxiv url: http://arxiv.org/abs/2012.15020v1
- Date: Wed, 30 Dec 2020 03:22:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-18 06:00:32.936394
- Title: Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network
- Title(参考訳): 生成型adversarial networkを用いた教師なし深部画像強調
- Authors: Zhangkai Ni, Wenhan Yang, Shiqi Wang, Lin Ma, and Sam Kwong
- Abstract要約: 監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
- 参考スコア(独自算出の注目度): 92.01145655155374
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Improving the aesthetic quality of images is challenging and eager for the
public. To address this problem, most existing algorithms are based on
supervised learning methods to learn an automatic photo enhancer for paired
data, which consists of low-quality photos and corresponding expert-retouched
versions. However, the style and characteristics of photos retouched by experts
may not meet the needs or preferences of general users. In this paper, we
present an unsupervised image enhancement generative adversarial network
(UEGAN), which learns the corresponding image-to-image mapping from a set of
images with desired characteristics in an unsupervised manner, rather than
learning on a large number of paired images. The proposed model is based on
single deep GAN which embeds the modulation and attention mechanisms to capture
richer global and local features. Based on the proposed model, we introduce two
losses to deal with the unsupervised image enhancement: (1) fidelity loss,
which is defined as a L2 regularization in the feature domain of a pre-trained
VGG network to ensure the content between the enhanced image and the input
image is the same, and (2) quality loss that is formulated as a relativistic
hinge adversarial loss to endow the input image the desired characteristics.
Both quantitative and qualitative results show that the proposed model
effectively improves the aesthetic quality of images. Our code is available at:
https://github.com/eezkni/UEGAN.
- Abstract(参考訳): 画像の美的品質を改善することは、大衆にとって挑戦的で熱心である。
この問題に対処するため,既存のアルゴリズムの多くは,低品質の写真とそれに対応する専門家修正バージョンからなるペアデータの自動写真強調器を学習するための教師付き学習法に基づいている。
しかし、専門家が修正した写真のスタイルや特徴は一般ユーザーのニーズや好みに合わない可能性がある。
本稿では,多数のペア画像について学習するのではなく,教師なしな特徴を持つ画像の集合から,対応する画像と画像のマッピングを学習する,教師なし画像強調生成ネットワーク(UEGAN)を提案する。
提案モデルは,よりリッチなグローバル・ローカル特徴を捉えるために,変調機構とアテンション機構を組み込んだシングルディープganに基づいている。
提案モデルに基づいて,(1)事前学習したVGGネットワークの特徴領域におけるL2正規化として定義される忠実度損失と,(2)相対論的ヒンジ反転損失として定式化された品質損失とを両立させ,入力画像に所望の特性を与える。
定量的,質的ともに,提案モデルが画像の美的品質を効果的に改善することを示す。
コードはhttps://github.com/eezkni/uegan.com/。
関連論文リスト
- G-Refine: A General Quality Refiner for Text-to-Image Generation [74.16137826891827]
G-Refineは,高画質画像の整合性を損なうことなく,低画質画像の高精細化を図った汎用画像精細機である。
このモデルは、知覚品質指標、アライメント品質指標、一般的な品質向上モジュールの3つの相互接続モジュールで構成されている。
大規模な実験により、G-Refine以降のAIGIは、4つのデータベースで10以上の品質指標でパフォーマンスが向上していることが明らかになった。
論文 参考訳(メタデータ) (2024-04-29T00:54:38Z) - Enhance Image Classification via Inter-Class Image Mixup with Diffusion Model [80.61157097223058]
画像分類性能を高めるための一般的な戦略は、T2Iモデルによって生成された合成画像でトレーニングセットを増強することである。
本研究では,既存のデータ拡張技術の欠点について検討する。
Diff-Mixと呼ばれる革新的なクラス間データ拡張手法を導入する。
論文 参考訳(メタデータ) (2024-03-28T17:23:45Z) - Forgery-aware Adaptive Transformer for Generalizable Synthetic Image
Detection [106.39544368711427]
本研究では,様々な生成手法から偽画像を検出することを目的とした,一般化可能な合成画像検出の課題について検討する。
本稿では,FatFormerという新しいフォージェリー適応トランスフォーマー手法を提案する。
提案手法は, 平均98%の精度でGANを観測し, 95%の精度で拡散モデルを解析した。
論文 参考訳(メタデータ) (2023-12-27T17:36:32Z) - ARNIQA: Learning Distortion Manifold for Image Quality Assessment [28.773037051085318]
No-Reference Image Quality Assessment (NR-IQA) は、高品質な参照画像を必要としない、人間の知覚に合わせて画像品質を測定する手法を開発することを目的としている。
本研究では、画像歪み多様体をモデル化し、本質的な表現を得るための自己教師型アプローチ ARNIQA を提案する。
論文 参考訳(メタデータ) (2023-10-20T17:22:25Z) - Re-IQA: Unsupervised Learning for Image Quality Assessment in the Wild [38.197794061203055]
教師なし環境で高レベルのコンテンツと低レベルの画像品質特徴を学習するために、2つの異なるエンコーダを訓練するためのMixture of Expertsアプローチを提案する。
本稿では,Re-IQAフレームワークから得られた高次・低次画像表現を,線形回帰モデルをトレーニングするために展開する。
本手法は,大規模画像品質評価データベース上での最先端性能を実現する。
論文 参考訳(メタデータ) (2023-04-02T05:06:51Z) - Invertible Network for Unpaired Low-light Image Enhancement [78.33382003460903]
本稿では,非可逆的ネットワークを活用して,前処理における低照度画像の強化と,非対向学習により逆向きに通常の照度画像の劣化を図ることを提案する。
対向的損失に加えて、トレーニングの安定性を確保し、より詳細な画像を保存するために、様々な損失関数を設計する。
低照度画像に対するプログレッシブ自己誘導強調処理を提案し,SOTAに対して良好な性能を示す。
論文 参考訳(メタデータ) (2021-12-24T17:00:54Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - Enhance Images as You Like with Unpaired Learning [8.104571453311442]
本稿では,低照度から高照度の画像空間における一対多の関係を学習するために,軽量な一経路条件生成対向ネットワーク(cGAN)を提案する。
我々のネットワークは、様々な参照画像上に設定された所定の入力条件から、拡張された画像の集合を生成することを学習する。
我々のモデルは、ノイズとクリーンなデータセットの完全な教師付き手法と同等に競合する視覚的および定量的な結果を得る。
論文 参考訳(メタデータ) (2021-10-04T03:00:44Z) - Compound Frechet Inception Distance for Quality Assessment of GAN
Created Images [7.628527132779575]
GANの注目すべき応用の1つは、ディープフェイク(deep fakes)として知られる偽の人間の顔を開発することである。
生成された画像の品質を測定することは本質的に主観的だが、標準化されたメトリクスを使って品質を客観化しようとする試みがなされている。
我々は,より広い視覚的欠陥をカバーするために,低レベルの特徴を統合することにより,評価プロセスの堅牢性を向上させることを提案する。
論文 参考訳(メタデータ) (2021-06-16T06:53:27Z) - Deep Attentive Generative Adversarial Network for Photo-Realistic Image
De-Quantization [25.805568996596783]
減量子化は、高ビット深度画面に表示するための低ビット深度画像の視覚的品質を改善することができる。
本稿では,画像強度分解能の超解像を実現するためのDAGANアルゴリズムを提案する。
DenseResAttモジュールは、自己保持機構を備えた密集した残留ブロックで構成されている。
論文 参考訳(メタデータ) (2020-04-07T06:45:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。