論文の概要: SWAGAN: A Style-based Wavelet-driven Generative Model
- arxiv url: http://arxiv.org/abs/2102.06108v1
- Date: Thu, 11 Feb 2021 16:43:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-12 18:29:19.658111
- Title: SWAGAN: A Style-based Wavelet-driven Generative Model
- Title(参考訳): SWAGAN: スタイルベースのウェーブレット駆動生成モデル
- Authors: Rinon Gal, Dana Cohen, Amit Bermano, Daniel Cohen-Or
- Abstract要約: Style and WAvelet based GAN (SWAGAN) は周波数領域のプログレッシブ生成を実装している。
SWAGANは、ジェネレータと識別器アーキテクチャ全体を通してウェーブレットを組み込み、各ステップで周波数対応の潜在表現を強制する。
- 参考スコア(独自算出の注目度): 45.31551926562387
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, considerable progress has been made in the visual quality of
Generative Adversarial Networks (GANs). Even so, these networks still suffer
from degradation in quality for high-frequency content, stemming from a
spectrally biased architecture, and similarly unfavorable loss functions. To
address this issue, we present a novel general-purpose Style and WAvelet based
GAN (SWAGAN) that implements progressive generation in the frequency domain.
SWAGAN incorporates wavelets throughout its generator and discriminator
architectures, enforcing a frequency-aware latent representation at every step
of the way. This approach yields enhancements in the visual quality of the
generated images, and considerably increases computational performance. We
demonstrate the advantage of our method by integrating it into the SyleGAN2
framework, and verifying that content generation in the wavelet domain leads to
higher quality images with more realistic high-frequency content. Furthermore,
we verify that our model's latent space retains the qualities that allow
StyleGAN to serve as a basis for a multitude of editing tasks, and show that
our frequency-aware approach also induces improved downstream visual quality.
- Abstract(参考訳): 近年、GAN(Generative Adversarial Networks)の視覚的品質に大きな進歩を遂げています。
それでもこれらのネットワークは、スペクトル偏りのあるアーキテクチャと同様に不利な損失関数に起因する高周波コンテンツの品質低下に苦しんでいる。
そこで本研究では,周波数領域におけるプログレッシブ生成を実現する汎用スタイルとWAVEletベースのGAN(SWAGAN)を提案する。
SWAGANは、ジェネレータと識別器アーキテクチャ全体を通してウェーブレットを組み込み、各ステップで周波数対応の潜在表現を強制する。
このアプローチにより、生成した画像の視覚的品質が向上し、計算性能が大幅に向上する。
本手法は,SyleGAN2フレームワークに統合し,ウェーブレット領域におけるコンテンツ生成により,よりリアルな高周波数コンテンツによる高品質な画像が得られることを示す。
さらに,我々のモデルの潜在空間がスタイルガンを編集作業の基礎として機能させる品質を維持していることを検証し,周波数認識アプローチが下流の視覚品質の向上をももたらしていることを示す。
関連論文リスト
- Hybrid Convolutional and Attention Network for Hyperspectral Image Denoising [54.110544509099526]
ハイパースペクトル画像(HSI)は、ハイパースペクトルデータの効果的な解析と解釈に重要である。
ハイブリット・コンボリューション・アテンション・ネットワーク(HCANet)を提案する。
主流HSIデータセットに対する実験結果は,提案したHCANetの合理性と有効性を示している。
論文 参考訳(メタデータ) (2024-03-15T07:18:43Z) - Class Conditional Time Series Generation with Structured Noise Space GAN [5.7329872368416535]
SNS-GAN(Structured Noise Space GAN)は、画像および時系列データの両方において、クラス条件生成に適した生成モデル分野における新しいアプローチである。
この方法は、発電機のノイズ空間にクラス条件を埋め込み、トレーニングプロセスを簡素化し、モデルの汎用性を高める。
本研究は,時系列や画像データ生成に限らず,様々な領域にGANを適用するための新たな道を開く。
論文 参考訳(メタデータ) (2023-12-20T11:43:33Z) - DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - WaGI : Wavelet-based GAN Inversion for Preserving High-frequency Image
Details [7.541357996797061]
本稿では,周波数特性を明示的に処理できる新しいGAN逆変換モデルWaGIを提案する。
WaGIは、既存の最先端のGANインバージョンモデルと比較して、インバージョンと編集の両方で優れた結果を示している。
論文 参考訳(メタデータ) (2022-10-18T07:48:59Z) - Hierarchical Semantic Regularization of Latent Spaces in StyleGANs [53.98170188547775]
本稿では,階層型意味正規化器(HSR)を提案する。これは,生成元が学習した階層的表現と,事前学習したネットワークが大量のデータに基づいて学習する強力な特徴とを一致させる。
HSRは、ジェネレータ表現の改善だけでなく、潜在スタイル空間の線形性と滑らかさも示しており、より自然なスタイル編集画像の生成につながっている。
論文 参考訳(メタデータ) (2022-08-07T16:23:33Z) - GIU-GANs: Global Information Utilization for Generative Adversarial
Networks [3.3945834638760948]
本稿では,Involution Generative Adversarial Networks (GIU-GANs) と呼ばれる新しいGANを提案する。
GIU-GANは、Squeeze-and-Excitation Networks (SENet)とInvolutionを統合したGlobal Information utilization (GIU)モジュールと呼ばれる新しいモジュールを利用している。
バッチ正規化(BN)は、ジェネレータがサンプリングしたノイズ間の表現差を必然的に無視し、生成した画質を劣化させる。
論文 参考訳(メタデータ) (2022-01-25T17:17:15Z) - Focal Frequency Loss for Image Reconstruction and Synthesis [125.7135706352493]
周波数領域の狭さが画像再構成と合成品質をさらに改善できることを示す。
本稿では,合成が難しい周波数成分に適応的に焦点を合わせることのできる,新しい焦点周波数損失を提案する。
論文 参考訳(メタデータ) (2020-12-23T17:32:04Z) - Multi-level Wavelet-based Generative Adversarial Network for Perceptual
Quality Enhancement of Compressed Video [51.631731922593225]
既存の手法は主に、その知覚的品質を無視しながら、圧縮映像の客観的品質を高めることに焦点を当てている。
圧縮ビデオの知覚品質を高めるために,マルチレベルウェーブレットパケット変換(WPT)に基づくGAN(Generative Adversarial Network)を提案する。
論文 参考訳(メタデータ) (2020-08-02T15:01:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。