論文の概要: DGL-GAN: Discriminator Guided Learning for GAN Compression
- arxiv url: http://arxiv.org/abs/2112.06502v2
- Date: Sun, 24 Mar 2024 15:12:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-27 06:12:57.503752
- Title: DGL-GAN: Discriminator Guided Learning for GAN Compression
- Title(参考訳): DGL-GAN:GAN圧縮のための差別化学習
- Authors: Yuesong Tian, Li Shen, Xiang Tian, Dacheng Tao, Zhifeng Li, Wei Liu, Yaowu Chen,
- Abstract要約: 高計算コストのGAN(Generative Adversarial Networks)は、ランダムノイズから高分解能画像を合成する際、顕著な成果を上げている。
本稿では,bf DGL-GAN と呼ばれるバニラ bf GAN を圧縮するための,新しい単純な bf 識別器 bf 誘導 bf 学習手法を提案する。
- 参考スコア(独自算出の注目度): 57.6150859067392
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative Adversarial Networks (GANs) with high computation costs, e.g., BigGAN and StyleGAN2, have achieved remarkable results in synthesizing high-resolution images from random noise. Reducing the computation cost of GANs while keeping generating photo-realistic images is a challenging field. In this work, we propose a novel yet simple {\bf D}iscriminator {\bf G}uided {\bf L}earning approach for compressing vanilla {\bf GAN}, dubbed {\bf DGL-GAN}. Motivated by the phenomenon that the teacher discriminator may contain some meaningful information about both real images and fake images, we merely transfer the knowledge from the teacher discriminator via the adversarial interaction between the teacher discriminator and the student generator. We apply DGL-GAN to compress the two most representative large-scale vanilla GANs, i.e., StyleGAN2 and BigGAN. Experiments show that DGL-GAN achieves state-of-the-art (SOTA) results on both StyleGAN2 and BigGAN. Moreover, DGL-GAN is also effective in boosting the performance of original uncompressed GANs. Original uncompressed StyleGAN2 boosted with DGL-GAN achieves FID 2.65 on FFHQ, which achieves a new state-of-the-art performance. Code and models are available at \url{https://github.com/yuesongtian/DGL-GAN}
- Abstract(参考訳): 高計算コストのGAN(Generative Adversarial Networks)やBigGAN(BigGAN)、StyleGAN2(StyleGAN2)は、ランダムノイズから高分解能画像の合成において顕著な成果を上げている。
フォトリアリスティック画像の生成を継続しながらGANの計算コストを削減することは難しい分野である。
本研究では,バニラGANを圧縮する手法として,単純だが簡単な"bf D}iscriminator {\bf G}uided {\bf L}earning"を提案し,これを"bf DGL-GAN}"と呼ぶ。
教師識別器が実像と偽像の両方について有意義な情報を持っているという現象に触発され,教師識別器と学生生成器との対角的相互作用を通じて,教師識別器から知識を伝達するのみとなる。
DGL-GANを用いて2つの代表的な大規模バニラGAN(StyleGAN2とBigGAN)を圧縮する。
実験の結果、DGL-GANはStyleGAN2とBigGANの両方でSOTA(State-of-the-art)の結果が得られることが示された。
さらに、DGL-GANは、オリジナルの非圧縮GANの性能向上にも有効である。
DGL-GANで強化された元々の圧縮されていないStyleGAN2はFFHQでFID 2.65を達成する。
コードとモデルは \url{https://github.com/yuesongtian/DGL-GAN} で入手できる。
関連論文リスト
- GLeaD: Improving GANs with A Generator-Leading Task [44.14659523033865]
ジェネレータ(G)とディスクリミネータ(D)の2プレーヤゲームとしてGAN(Generative Adversarial Network)を定式化する
本稿では,G が D にタスクを割り当てる新たなパラダイムを提案する。
論文 参考訳(メタデータ) (2022-12-07T16:25:19Z) - Distilling Representations from GAN Generator via Squeeze and Span [55.76208869775715]
本稿では,GANジェネレータから知識を抽出し,その表現を抽出する手法を提案する。
我々は,合成ドメインの蒸留された表現を実領域に分散し,実際のトレーニングデータを用いてGANのモード崩壊を緩和する。
論文 参考訳(メタデータ) (2022-11-06T01:10:28Z) - Rebooting ACGAN: Auxiliary Classifier GANs with Stable Training [45.70113212633225]
条件付き生成逆数ネットワーク(cGAN)は、クラス情報をGANに組み込んで現実的な画像を生成する。
最も一般的なcGANの1つは、ソフトマックスクロスエントロピー損失(ACGAN)を持つ補助分類器GANである。
ACGANはまた、多様性の欠如により容易に分類できるサンプルを生成する傾向がある。
論文 参考訳(メタデータ) (2021-11-01T17:51:33Z) - Online Multi-Granularity Distillation for GAN Compression [17.114017187236836]
GAN(Generative Adversarial Networks)は、優れた画像の獲得に成功している。
GANは、計算コストの最小化とメモリ使用の急激さにより、リソースに制約のあるデバイスにデプロイするのは難しい。
本稿では, 軽量なGANを得るために, オンライン多粒度蒸留方式を提案する。
論文 参考訳(メタデータ) (2021-08-16T05:49:50Z) - GMM-Based Generative Adversarial Encoder Learning [39.57350884615545]
GANのジェネレーション機能とエンコーダを組み合わせたシンプルなアーキテクチャのセットアップを紹介します。
GMMを介してエンコーダ潜時空間の出力をモデル化し、この潜時空間を用いた良好なクラスタリングとGANによる画像生成の改善の両方をもたらす。
論文 参考訳(メタデータ) (2020-12-08T16:12:16Z) - Learning Efficient GANs for Image Translation via Differentiable Masks
and co-Attention Distillation [130.30465659190773]
Generative Adversarial Networks (GAN) は画像翻訳において広く利用されているが、その高い計算とストレージコストがモバイルデバイスへの展開を妨げる。
DMADと呼ばれる新しいGAN圧縮手法を提案する。
実験の結果、DMADはCycleGANのMultiply Accumulate Operations (MAC)を13倍、Pix2Pixを4倍削減し、フルモデルに匹敵する性能を維持することができた。
論文 参考訳(メタデータ) (2020-11-17T02:39:19Z) - TinyGAN: Distilling BigGAN for Conditional Image Generation [2.8072597424460466]
BigGANはImageNetの画像生成の質を大幅に改善しましたが、巨大なモデルが必要で、リソースに制約のあるデバイスへのデプロイが困難になります。
本稿では,GANを圧縮するためのブラックボックス知識蒸留フレームワークを提案する。
教師ネットワークとしてBigGANを前提として、私たちは、インセプションとFIDスコアの競合的なパフォーマンスを達成するために、はるかに小さな学生ネットワークをトレーニングしました。
論文 参考訳(メタデータ) (2020-09-29T07:33:49Z) - AutoGAN-Distiller: Searching to Compress Generative Adversarial Networks [98.71508718214935]
既存のGAN圧縮アルゴリズムは、特定のGANアーキテクチャの処理と損失に限られている。
近年の深部圧縮におけるAutoMLの成功に触発されて,GAN圧縮にAutoMLを導入し,AutoGAN-Distillerフレームワークを開発した。
我々はAGDを画像翻訳と超解像の2つの代表的なGANタスクで評価する。
論文 参考訳(メタデータ) (2020-06-15T07:56:24Z) - Freeze the Discriminator: a Simple Baseline for Fine-Tuning GANs [104.85633684716296]
判別器の冷凍下層を有するGANの簡易微調整が驚くほど良好であることを示す。
この単純なベースラインであるFreezeDは、非条件GANと条件GANの両方で使用されている従来の技術よりも大幅に優れている。
論文 参考訳(メタデータ) (2020-02-25T15:30:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。