論文の概要: Details or Artifacts: A Locally Discriminative Learning Approach to
Realistic Image Super-Resolution
- arxiv url: http://arxiv.org/abs/2203.09195v1
- Date: Thu, 17 Mar 2022 09:35:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-18 14:38:31.260488
- Title: Details or Artifacts: A Locally Discriminative Learning Approach to
Realistic Image Super-Resolution
- Title(参考訳): 詳細またはアーティファクト:写実的画像超解像に対する局所的判別学習アプローチ
- Authors: Jie Liang and Hui Zeng and Lei Zhang
- Abstract要約: 近年,GAN (Generative Adversarial Network) の単一画像超解像 (SISR) が注目されている。
本稿では、視覚的アーチファクトを抑えつつ、知覚的にリアルなディテールを安定的に生成できるGANベースのSISRモデルを訓練できることを実証する。
- 参考スコア(独自算出の注目度): 28.00231586840797
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Single image super-resolution (SISR) with generative adversarial networks
(GAN) has recently attracted increasing attention due to its potentials to
generate rich details. However, the training of GAN is unstable, and it often
introduces many perceptually unpleasant artifacts along with the generated
details. In this paper, we demonstrate that it is possible to train a GAN-based
SISR model which can stably generate perceptually realistic details while
inhibiting visual artifacts. Based on the observation that the local statistics
(e.g., residual variance) of artifact areas are often different from the areas
of perceptually friendly details, we develop a framework to discriminate
between GAN-generated artifacts and realistic details, and consequently
generate an artifact map to regularize and stabilize the model training
process. Our proposed locally discriminative learning (LDL) method is simple
yet effective, which can be easily plugged in off-the-shelf SISR methods and
boost their performance. Experiments demonstrate that LDL outperforms the
state-of-the-art GAN based SISR methods, achieving not only higher
reconstruction accuracy but also superior perceptual quality on both synthetic
and real-world datasets. Codes and models are available at
https://github.com/csjliang/LDL.
- Abstract(参考訳): 近年,GAN (Generative Adversarial Network) を用いた画像超解像 (SISR) が注目されている。
しかし、GANの訓練は不安定であり、多くの知覚的に不快なアーティファクトと生成された詳細を導入することが多い。
本稿では、視覚的アーチファクトを抑えつつ、知覚的にリアルなディテールを安定的に生成できるGANベースのSISRモデルを訓練できることを実証する。
人工物領域の局所統計(例えば、残留分散)が知覚的に友好的な詳細の領域としばしば異なるという観測に基づいて、gan生成物と現実的な詳細を区別する枠組みを開発し、その結果、モデルトレーニングプロセスを規則化し安定化する人工物マップを作成する。
提案する局所判別学習法(ldl)は単純かつ効果的であり,既設のsisr法に容易に接続でき,その性能を高めることができる。
実験により、LDLは最先端のGANベースのSISR法よりも優れており、高い再現精度だけでなく、合成データセットと実世界のデータセットの知覚品質も優れていることが示された。
コードとモデルはhttps://github.com/csjliang/ldlで入手できる。
関連論文リスト
- Towards Realistic Data Generation for Real-World Super-Resolution [58.88039242455039]
RealDGenは、現実世界の超解像のために設計された教師なし学習データ生成フレームワークである。
我々は,コンテンツ分解脱結合拡散モデルに統合されたコンテンツと劣化抽出戦略を開発する。
実験により、RealDGenは、現実世界の劣化を反映する大規模で高品質なペアデータを生成するのに優れていることが示された。
論文 参考訳(メタデータ) (2024-06-11T13:34:57Z) - A General Method to Incorporate Spatial Information into Loss Functions for GAN-based Super-resolution Models [25.69505971220203]
GAN(Generative Adversarial Networks)は超解像問題において優れた性能を示した。
GANは、予期せぬアーチファクトやノイズなど、出力に副作用をもたらすことが多い。
本稿では,多くのGANベース超解像(SR)モデルにおいて,トレーニングプロセスに必須空間情報を導入することで,効果的に活用できる汎用手法を提案する。
論文 参考訳(メタデータ) (2024-03-15T17:29:16Z) - Damage GAN: A Generative Model for Imbalanced Data [1.027461951217988]
本研究では、不均衡データセットの文脈におけるGAN(Generative Adversarial Networks)の適用について検討する。
本稿では,GANとコントラスト学習をシームレスに統合するContraD GANフレームワークを基盤として,損傷GANと呼ばれる新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-12-08T06:36:33Z) - DifAugGAN: A Practical Diffusion-style Data Augmentation for GAN-based
Single Image Super-resolution [88.13972071356422]
本稿では,DifAugGAN として知られる GAN ベースの画像超解像法(SR) のための拡散型データ拡張手法を提案する。
それは、訓練中の判別器の校正を改善するために、生成拡散モデルに拡散過程を適用することを含む。
我々のDifAugGANは、現在のGANベースのSISR手法のプラグ・アンド・プレイ戦略であり、判別器の校正を改善し、SR性能を向上させることができる。
論文 参考訳(メタデータ) (2023-11-30T12:37:53Z) - DeSRA: Detect and Delete the Artifacts of GAN-based Real-World
Super-Resolution Models [41.60982753592467]
GAN(Generative Adversarial Network)を用いた画像超解像(SR)は,現実的な詳細の復元に成功している。
GANベースのSRモデルが必然的に不快で望ましくないアーティファクトを生み出すことは悪名高い。
本稿では,未確認試験データから生成したGANアーチファクトの原因と特徴について,地絡みのない解析を行った。
そこで我々は,これらのSRアーティファクトの検出と削除を行う新しい手法,すなわちDeSRAを開発した。
論文 参考訳(メタデータ) (2023-07-05T17:31:44Z) - Intriguing Property and Counterfactual Explanation of GAN for Remote Sensing Image Generation [25.96740500337747]
GAN(Generative Adversarial Network)は、自然画像の分野で顕著な進歩を遂げている。
GANモデルは、自然な画像生成よりも、RS画像生成のためのトレーニングデータのサイズに敏感である。
本稿では,一様正則化(UR)とエントロピー正則化(ER)という2つの革新的な調整手法を提案する。
論文 参考訳(メタデータ) (2023-03-09T13:22:50Z) - Forward Super-Resolution: How Can GANs Learn Hierarchical Generative
Models for Real-World Distributions [66.05472746340142]
生成ネットワーク(GAN)は、複雑で現実世界の分布を学習する上で最も成功したネットワークの一つである。
本稿では,GANが実写画像の分布を効率的に学習する方法について述べる。
論文 参考訳(メタデータ) (2021-06-04T17:33:29Z) - Best-Buddy GANs for Highly Detailed Image Super-Resolution [71.13466303340192]
我々は,低分解能(LR)入力に基づいて高分解能(HR)画像を生成する単一画像超解像(SISR)問題を考える。
このラインに沿ったほとんどのメソッドは、SISRタスクに十分な柔軟性がない、事前定義されたシングルLRシングルHRマッピングに依存しています。
リッチディテールSISRのためのベストバディGAN(Beby-GAN)を提案する。
イミュータブルな1対1の制約を緩和することで、推定されたパッチを動的に最高の監視を求めることができる。
論文 参考訳(メタデータ) (2021-03-29T02:58:27Z) - On Leveraging Pretrained GANs for Generation with Limited Data [83.32972353800633]
生成的敵ネットワーク(GAN)は、しばしば(人間によって)実際の画像と区別できない非常に現実的な画像を生成することができる。
このように生成されたほとんどの画像はトレーニングデータセットには含まれておらず、GAN生成データでトレーニングセットを増強する可能性を示唆している。
我々は、大規模なデータセットで事前訓練された既存のGANモデルを活用し、トランスファーラーニングの概念に従って追加の知識を導入する。
限られたデータを用いた生成における提案手法の有効性を示すため, 広範囲な実験を行った。
論文 参考訳(メタデータ) (2020-02-26T21:53:36Z) - High-Fidelity Synthesis with Disentangled Representation [60.19657080953252]
本稿では,不整合学習と高忠実度合成のためのID-GAN(Information-Distillation Generative Adrial Network)を提案する。
提案手法は, VAEモデルを用いて非交叉表現を学習し, 高忠実度合成のためのGAN生成器に追加のニュアンス変数で学習表現を蒸留する。
単純さにもかかわらず,提案手法は高効率であり,不整合表現を用いた最先端の手法に匹敵する画像生成品質を実現する。
論文 参考訳(メタデータ) (2020-01-13T14:39:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。