論文の概要: SWAGAN: A Style-based Wavelet-driven Generative Model
- arxiv url: http://arxiv.org/abs/2102.06108v1
- Date: Thu, 11 Feb 2021 16:43:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-12 18:29:19.658111
- Title: SWAGAN: A Style-based Wavelet-driven Generative Model
- Title(参考訳): SWAGAN: スタイルベースのウェーブレット駆動生成モデル
- Authors: Rinon Gal, Dana Cohen, Amit Bermano, Daniel Cohen-Or
- Abstract要約: Style and WAvelet based GAN (SWAGAN) は周波数領域のプログレッシブ生成を実装している。
SWAGANは、ジェネレータと識別器アーキテクチャ全体を通してウェーブレットを組み込み、各ステップで周波数対応の潜在表現を強制する。
- 参考スコア(独自算出の注目度): 45.31551926562387
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, considerable progress has been made in the visual quality of
Generative Adversarial Networks (GANs). Even so, these networks still suffer
from degradation in quality for high-frequency content, stemming from a
spectrally biased architecture, and similarly unfavorable loss functions. To
address this issue, we present a novel general-purpose Style and WAvelet based
GAN (SWAGAN) that implements progressive generation in the frequency domain.
SWAGAN incorporates wavelets throughout its generator and discriminator
architectures, enforcing a frequency-aware latent representation at every step
of the way. This approach yields enhancements in the visual quality of the
generated images, and considerably increases computational performance. We
demonstrate the advantage of our method by integrating it into the SyleGAN2
framework, and verifying that content generation in the wavelet domain leads to
higher quality images with more realistic high-frequency content. Furthermore,
we verify that our model's latent space retains the qualities that allow
StyleGAN to serve as a basis for a multitude of editing tasks, and show that
our frequency-aware approach also induces improved downstream visual quality.
- Abstract(参考訳): 近年、GAN(Generative Adversarial Networks)の視覚的品質に大きな進歩を遂げています。
それでもこれらのネットワークは、スペクトル偏りのあるアーキテクチャと同様に不利な損失関数に起因する高周波コンテンツの品質低下に苦しんでいる。
そこで本研究では,周波数領域におけるプログレッシブ生成を実現する汎用スタイルとWAVEletベースのGAN(SWAGAN)を提案する。
SWAGANは、ジェネレータと識別器アーキテクチャ全体を通してウェーブレットを組み込み、各ステップで周波数対応の潜在表現を強制する。
このアプローチにより、生成した画像の視覚的品質が向上し、計算性能が大幅に向上する。
本手法は,SyleGAN2フレームワークに統合し,ウェーブレット領域におけるコンテンツ生成により,よりリアルな高周波数コンテンツによる高品質な画像が得られることを示す。
さらに,我々のモデルの潜在空間がスタイルガンを編集作業の基礎として機能させる品質を維持していることを検証し,周波数認識アプローチが下流の視覚品質の向上をももたらしていることを示す。
関連論文リスト
- FE-UNet: Frequency Domain Enhanced U-Net with Segment Anything Capability for Versatile Image Segmentation [50.9040167152168]
CNNのコントラスト感度関数を実験的に定量化し,人間の視覚システムと比較した。
本稿ではウェーブレット誘導分光ポーリングモジュール(WSPM)を提案する。
人間の視覚系をさらにエミュレートするために、周波数領域拡張受容野ブロック(FE-RFB)を導入する。
本研究では,SAM2 をバックボーンとし,Hiera-Large を事前学習ブロックとして組み込んだ FE-UNet を開発した。
論文 参考訳(メタデータ) (2025-02-06T07:24:34Z) - Locally-Focused Face Representation for Sketch-to-Image Generation Using Noise-Induced Refinement [1.7409266903306055]
本稿では,初歩的な顔スケッチの高忠実度カラー画像への変換を著しく向上させる新しいディープラーニングフレームワークを提案する。
提案手法は,エンコーダ・デコーダアーキテクチャ内のブロックアテンション機構により,顔の特徴を効果的に捉え,強化する。
このモデルは、スケッチ・ツー・イメージ生成における新しい最先端の状態を設定し、スケッチの型を一般化し、法執行機関における犯罪識別のようなアプリケーションに対して堅牢なソリューションを提供する。
論文 参考訳(メタデータ) (2024-11-28T09:12:56Z) - Hybrid Convolutional and Attention Network for Hyperspectral Image Denoising [54.110544509099526]
ハイパースペクトル画像(HSI)は、ハイパースペクトルデータの効果的な解析と解釈に重要である。
ハイブリット・コンボリューション・アテンション・ネットワーク(HCANet)を提案する。
主流HSIデータセットに対する実験結果は,提案したHCANetの合理性と有効性を示している。
論文 参考訳(メタデータ) (2024-03-15T07:18:43Z) - GeoPos: A Minimal Positional Encoding for Enhanced Fine-Grained Details in Image Synthesis Using Convolutional Neural Networks [0.0]
複雑な幾何学的特徴を再現する画像生成モデルの永続的不備は、ほぼ10年間にわたって進行中の問題であった。
本稿では,この問題を幾何的能力の畳み込み層を拡大することにより緩和する方法について述べる。
本研究では,拡散モデル,GAN,変分オートエンコーダ(VAE)によって生成された画像の品質を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2024-01-03T19:27:20Z) - Class Conditional Time Series Generation with Structured Noise Space GAN [5.7329872368416535]
SNS-GAN(Structured Noise Space GAN)は、画像および時系列データの両方において、クラス条件生成に適した生成モデル分野における新しいアプローチである。
この方法は、発電機のノイズ空間にクラス条件を埋め込み、トレーニングプロセスを簡素化し、モデルの汎用性を高める。
本研究は,時系列や画像データ生成に限らず,様々な領域にGANを適用するための新たな道を開く。
論文 参考訳(メタデータ) (2023-12-20T11:43:33Z) - DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - GIU-GANs: Global Information Utilization for Generative Adversarial
Networks [3.3945834638760948]
本稿では,Involution Generative Adversarial Networks (GIU-GANs) と呼ばれる新しいGANを提案する。
GIU-GANは、Squeeze-and-Excitation Networks (SENet)とInvolutionを統合したGlobal Information utilization (GIU)モジュールと呼ばれる新しいモジュールを利用している。
バッチ正規化(BN)は、ジェネレータがサンプリングしたノイズ間の表現差を必然的に無視し、生成した画質を劣化させる。
論文 参考訳(メタデータ) (2022-01-25T17:17:15Z) - Focal Frequency Loss for Image Reconstruction and Synthesis [125.7135706352493]
周波数領域の狭さが画像再構成と合成品質をさらに改善できることを示す。
本稿では,合成が難しい周波数成分に適応的に焦点を合わせることのできる,新しい焦点周波数損失を提案する。
論文 参考訳(メタデータ) (2020-12-23T17:32:04Z) - Multi-level Wavelet-based Generative Adversarial Network for Perceptual
Quality Enhancement of Compressed Video [51.631731922593225]
既存の手法は主に、その知覚的品質を無視しながら、圧縮映像の客観的品質を高めることに焦点を当てている。
圧縮ビデオの知覚品質を高めるために,マルチレベルウェーブレットパケット変換(WPT)に基づくGAN(Generative Adversarial Network)を提案する。
論文 参考訳(メタデータ) (2020-08-02T15:01:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。