論文の概要: Stylized Projected GAN: A Novel Architecture for Fast and Realistic
Image Generation
- arxiv url: http://arxiv.org/abs/2307.16275v1
- Date: Sun, 30 Jul 2023 17:05:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-01 16:37:30.784662
- Title: Stylized Projected GAN: A Novel Architecture for Fast and Realistic
Image Generation
- Title(参考訳): Stylized Projected GAN: 高速でリアルな画像生成のための新しいアーキテクチャ
- Authors: Md Nurul Muttakin, Malik Shahid Sultan, Robert Hoehndorf, Hernando
Ombao
- Abstract要約: プロジェクションされたGANは、トランスファーラーニングを使用して、生成された実際のサンプルを事前訓練された特徴空間に投影することで、GANのトレーニング困難に対処する。
統合されたモジュールは、生成した画像のアーティファクトの問題を軽減するために、Fast GANのジェネレータアーキテクチャに組み込まれている。
- 参考スコア(独自算出の注目度): 8.796424252434875
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Generative Adversarial Networks are used for generating the data using a
generator and a discriminator, GANs usually produce high-quality images, but
training GANs in an adversarial setting is a difficult task. GANs require high
computation power and hyper-parameter regularization for converging. Projected
GANs tackle the training difficulty of GANs by using transfer learning to
project the generated and real samples into a pre-trained feature space.
Projected GANs improve the training time and convergence but produce artifacts
in the generated images which reduce the quality of the generated samples, we
propose an optimized architecture called Stylized Projected GANs which
integrates the mapping network of the Style GANs with Skip Layer Excitation of
Fast GAN. The integrated modules are incorporated within the generator
architecture of the Fast GAN to mitigate the problem of artifacts in the
generated images.
- Abstract(参考訳): ジェネレータと判別器を用いてデータを生成するには、通常ganが高品質な画像を生成するが、敵対的な設定でganを訓練することは難しい。
GANは収束のために高い計算能力とハイパーパラメータ正規化を必要とする。
プロジェクションされたGANは、トランスファーラーニングを使用して生成された実際のサンプルを事前訓練された特徴空間に投影することで、GANのトレーニング困難に対処する。
投影されたGANはトレーニング時間と収束性を向上するが、生成した画像中のアーティファクトを生成し、生成したサンプルの品質を低減し、Stylized Projected GANと呼ばれる最適化アーキテクチャを提案し、スタイルGANのマッピングネットワークとFast GANのスキップ層励起を統合する。
統合モジュールは、生成された画像内のアーティファクトの問題を軽減するために、fast ganのジェネレータアーキテクチャに組み込まれる。
関連論文リスト
- Faster Projected GAN: Towards Faster Few-Shot Image Generation [10.068622488926172]
本稿では,プロジェクテッドGANに基づく高速プロジェクテッドGANと呼ばれる改良型GANネットワークモデルを提案する。
深度分離可能な畳み込み(DSC)を導入することにより、投影されたGANのパラメータの数を削減し、トレーニング速度を加速し、メモリを節約する。
論文 参考訳(メタデータ) (2024-01-23T07:55:27Z) - In-Domain GAN Inversion for Faithful Reconstruction and Editability [132.68255553099834]
ドメイン誘導型ドメイン正規化とエンコーダで構成されたドメイン内GANインバージョンを提案し、事前学習されたGANモデルのネイティブ潜在空間における反転コードを正規化する。
エンコーダ構造,開始反転点,および逆パラメータ空間の効果を総合的に解析し,再構成品質と編集特性とのトレードオフを観察する。
論文 参考訳(メタデータ) (2023-09-25T08:42:06Z) - LD-GAN: Low-Dimensional Generative Adversarial Network for Spectral
Image Generation with Variance Regularization [72.4394510913927]
ディープラーニング法はスペクトル画像(SI)計算タスクの最先端技術である。
GANは、データ分散から学習およびサンプリングすることで、多様な拡張を可能にする。
この種のデータの高次元性は、GANトレーニングの収束を妨げるため、GANベースのSI生成は困難である。
本稿では, オートエンコーダ訓練における低次元表現分散を制御し, GANで生成されたサンプルの多様性を高めるための統計正則化を提案する。
論文 参考訳(メタデータ) (2023-04-29T00:25:02Z) - TcGAN: Semantic-Aware and Structure-Preserved GANs with Individual
Vision Transformer for Fast Arbitrary One-Shot Image Generation [11.207512995742999]
画像の内部パッチから学習する生成的敵ネットワークを持つワンショット画像生成(OSG)は、世界中で注目を集めている。
本稿では,既存のワンショット画像生成手法の欠点を克服するために,個々の視覚変換器を用いた構造保存方式TcGANを提案する。
論文 参考訳(メタデータ) (2023-02-16T03:05:59Z) - GIU-GANs: Global Information Utilization for Generative Adversarial
Networks [3.3945834638760948]
本稿では,Involution Generative Adversarial Networks (GIU-GANs) と呼ばれる新しいGANを提案する。
GIU-GANは、Squeeze-and-Excitation Networks (SENet)とInvolutionを統合したGlobal Information utilization (GIU)モジュールと呼ばれる新しいモジュールを利用している。
バッチ正規化(BN)は、ジェネレータがサンプリングしたノイズ間の表現差を必然的に無視し、生成した画質を劣化させる。
論文 参考訳(メタデータ) (2022-01-25T17:17:15Z) - Investigating the Potential of Auxiliary-Classifier GANs for Image
Classification in Low Data Regimes [12.128005423388226]
本稿では、画像分類のための「ワンストップショップ」アーキテクチャとして、補助分類型GAN(AC-GAN)の可能性を検討する。
AC-GANは画像分類において有望であり、標準CNNとの競合性能を達成する。
論文 参考訳(メタデータ) (2022-01-22T19:33:16Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - Dynamically Grown Generative Adversarial Networks [111.43128389995341]
本稿では、ネットワークアーキテクチャとそのパラメータを自動化とともに最適化し、トレーニング中にGANを動的に成長させる手法を提案する。
本手法はアーキテクチャ探索手法を勾配に基づく訓練とインターリーブステップとして組み込んで,ジェネレータと識別器の最適アーキテクチャ成長戦略を定期的に探究する。
論文 参考訳(メタデータ) (2021-06-16T01:25:51Z) - Guiding GANs: How to control non-conditional pre-trained GANs for
conditional image generation [69.10717733870575]
本稿では,汎用非条件GANを条件GANとして振る舞うための新しい方法を提案する。
提案手法は,非条件GANのジェネレータネットワークに供給される高次元ランダム入力を生成するために,エンコーダネットワークを混合するものである。
論文 参考訳(メタデータ) (2021-01-04T14:03:32Z) - Efficient texture-aware multi-GAN for image inpainting [5.33024001730262]
近年のGAN (Generative Adversarial Network) のインペイント手法は顕著に改善されている。
本稿では,性能とレンダリング効率の両方を改善するマルチGANアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-09-30T14:58:03Z) - Generative Hierarchical Features from Synthesizing Images [65.66756821069124]
画像合成の学習は、広範囲のアプリケーションにまたがって一般化可能な顕著な階層的な視覚的特徴をもたらす可能性があることを示す。
生成的階層的特徴(Generative Hierarchical Feature, GH-Feat)と呼ばれるエンコーダが生成する視覚的特徴は、生成的タスクと識別的タスクの両方に強い伝達性を有する。
論文 参考訳(メタデータ) (2020-07-20T18:04:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。