論文の概要: TinyGAN: Distilling BigGAN for Conditional Image Generation
- arxiv url: http://arxiv.org/abs/2009.13829v1
- Date: Tue, 29 Sep 2020 07:33:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 06:38:28.970201
- Title: TinyGAN: Distilling BigGAN for Conditional Image Generation
- Title(参考訳): TinyGAN:条件付き画像生成のためのBigGANの蒸留
- Authors: Ting-Yun Chang and Chi-Jen Lu
- Abstract要約: BigGANはImageNetの画像生成の質を大幅に改善しましたが、巨大なモデルが必要で、リソースに制約のあるデバイスへのデプロイが困難になります。
本稿では,GANを圧縮するためのブラックボックス知識蒸留フレームワークを提案する。
教師ネットワークとしてBigGANを前提として、私たちは、インセプションとFIDスコアの競合的なパフォーマンスを達成するために、はるかに小さな学生ネットワークをトレーニングしました。
- 参考スコア(独自算出の注目度): 2.8072597424460466
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative Adversarial Networks (GANs) have become a powerful approach for
generative image modeling. However, GANs are notorious for their training
instability, especially on large-scale, complex datasets. While the recent work
of BigGAN has significantly improved the quality of image generation on
ImageNet, it requires a huge model, making it hard to deploy on
resource-constrained devices. To reduce the model size, we propose a black-box
knowledge distillation framework for compressing GANs, which highlights a
stable and efficient training process. Given BigGAN as the teacher network, we
manage to train a much smaller student network to mimic its functionality,
achieving competitive performance on Inception and FID scores with the
generator having $16\times$ fewer parameters.
- Abstract(参考訳): generative adversarial networks (gans) は、生成画像モデリングの強力なアプローチとなっている。
しかしganはトレーニングの不安定さ、特に大規模で複雑なデータセットで有名である。
BigGANの最近の作業は、ImageNetの画像生成の質を大幅に向上させたが、巨大なモデルが必要であり、リソースに制約のあるデバイスへのデプロイが困難になっている。
モデルサイズの削減を目的として,GANを圧縮するためのブラックボックス知識蒸留フレームワークを提案する。
教師ネットワークとしてbigganを前提にすると、この機能を模倣するために、ずっと小さな学生ネットワークを訓練し、ジェネレータが16\times$のパラメータを持つインセプションとfidスコアで競争力のあるパフォーマンスを達成できます。
関連論文リスト
- E$^{2}$GAN: Efficient Training of Efficient GANs for Image-to-Image Translation [69.72194342962615]
拡散モデルからGANを蒸留するプロセスは、より効率的にできるのか?
まず、一般化された特徴を持つベースGANモデルを構築し、微調整により異なる概念に適応し、スクラッチからトレーニングの必要性を排除した。
第2に,ベースモデル全体の微調整を行うのではなく,低ランク適応(LoRA)を簡易かつ効果的なランク探索プロセスで行う。
第3に、微調整に必要な最小限のデータ量を調査し、トレーニング時間を短縮する。
論文 参考訳(メタデータ) (2024-01-11T18:59:14Z) - A Survey on Leveraging Pre-trained Generative Adversarial Networks for
Image Editing and Restoration [72.17890189820665]
GAN(Generative Adversarial Network)は、単純だが効果的なトレーニング機構と優れた画像生成品質により、大きな注目を集めている。
近年のGANモデルは生成した画像と実際の画像とのギャップを大幅に狭めている。
近年の多くの研究は、未学習のGANモデルと学習されたGAN先行空間を生かして、事前学習されたGANモデルを活用することへの関心が高まっている。
論文 参考訳(メタデータ) (2022-07-21T05:05:58Z) - Time Efficient Training of Progressive Generative Adversarial Network
using Depthwise Separable Convolution and Super Resolution Generative
Adversarial Network [0.0]
本稿では,プログレッシブGANと若干の修正とスーパーレゾリューションGANを組み合わせた新しいパイプラインを提案する。
スーパーレゾリューションGANは低解像度画像を高解像度画像にサンプリングし、トレーニング時間を指数関数的に短縮するのに有用な資源であることが証明できる。
論文 参考訳(メタデータ) (2022-02-24T19:53:37Z) - DGL-GAN: Discriminator Guided Learning for GAN Compression [57.6150859067392]
高計算コストのGAN(Generative Adversarial Networks)は、ランダムノイズから高分解能画像を合成する際、顕著な成果を上げている。
本稿では,bf DGL-GAN と呼ばれるバニラ bf GAN を圧縮するための,新しい単純な bf 識別器 bf 誘導 bf 学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-13T09:24:45Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - Online Multi-Granularity Distillation for GAN Compression [17.114017187236836]
GAN(Generative Adversarial Networks)は、優れた画像の獲得に成功している。
GANは、計算コストの最小化とメモリ使用の急激さにより、リソースに制約のあるデバイスにデプロイするのは難しい。
本稿では, 軽量なGANを得るために, オンライン多粒度蒸留方式を提案する。
論文 参考訳(メタデータ) (2021-08-16T05:49:50Z) - SETGAN: Scale and Energy Trade-off GANs for Image Applications on Mobile
Platforms [15.992829133103921]
大規模エネルギートレードオフガン (SETGAN) と呼ばれる実行時に消費されるエネルギーに対するGANのトレードオフ画像生成精度に関する新しいアプローチを提案する。
我々は、完全に畳み込みGANのピラミッドを含む単一の画像非条件生成モデルであるSinGANを使用する。
SETGANのユニークなクライアントサーバベースのアーキテクチャでは、3%から12%のSSIM精度を失うことで、エネルギーの56%のアップを実現しました。
論文 参考訳(メタデータ) (2021-03-23T23:51:22Z) - Towards Faster and Stabilized GAN Training for High-fidelity Few-shot
Image Synthesis [21.40315235087551]
1024*1024解像度で優れた品質を得る軽量GAN構造を提案します。
データとコンピューティングの予算が限られている場合、私たちのモデルが最先端のstylegan2よりも優れたパフォーマンスを示します。
論文 参考訳(メタデータ) (2021-01-12T22:02:54Z) - Hijack-GAN: Unintended-Use of Pretrained, Black-Box GANs [57.90008929377144]
現状のGANモデルは、無条件画像生成以外の様々な用途に利用できることを示す。
我々は、画像生成プロセスの制御も可能な反復的なスキームによりこれを達成した。
論文 参考訳(メタデータ) (2020-11-28T11:07:36Z) - Enhanced Balancing GAN: Minority-class Image Generation [0.7310043452300734]
GAN(Generative Adversarial Network)は、最も強力な生成モデルの一つである。
この問題を軽減するため、BAGAN(Bavalancing GAN)が提案されているが、異なるクラスの画像が似ていると不安定である。
本研究では,ラベル付き潜在ベクトルを分散する中間埋め込みモデルを用いた教師付きオートエンコーダを提案する。
提案モデルでは,従来のBAGANの不安定な問題を克服し,より高速で高品質な世代に収束する。
論文 参考訳(メタデータ) (2020-10-31T05:03:47Z) - Distilling portable Generative Adversarial Networks for Image
Translation [101.33731583985902]
従来のネットワーク圧縮手法は、視覚的に認識されるタスクに焦点をあてるが、生成タスクには対処しない。
知識蒸留にインスパイアされた学生は、元の重教師ジェネレータから低レベルおよび高レベル情報を継承することにより、少ないパラメータの学生ジェネレータを訓練する。
生徒ジェネレータと生徒識別器を最適化するために、対向学習プロセスを確立する。
論文 参考訳(メタデータ) (2020-03-07T05:53:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。