論文の概要: Online Multi-Granularity Distillation for GAN Compression
- arxiv url: http://arxiv.org/abs/2108.06908v1
- Date: Mon, 16 Aug 2021 05:49:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-17 15:03:57.629666
- Title: Online Multi-Granularity Distillation for GAN Compression
- Title(参考訳): gan圧縮用オンライン多粒度蒸留
- Authors: Yuxi Ren, Jie Wu, Xuefeng Xiao, Jianchao Yang
- Abstract要約: GAN(Generative Adversarial Networks)は、優れた画像の獲得に成功している。
GANは、計算コストの最小化とメモリ使用の急激さにより、リソースに制約のあるデバイスにデプロイするのは難しい。
本稿では, 軽量なGANを得るために, オンライン多粒度蒸留方式を提案する。
- 参考スコア(独自算出の注目度): 17.114017187236836
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative Adversarial Networks (GANs) have witnessed prevailing success in
yielding outstanding images, however, they are burdensome to deploy on
resource-constrained devices due to ponderous computational costs and hulking
memory usage. Although recent efforts on compressing GANs have acquired
remarkable results, they still exist potential model redundancies and can be
further compressed. To solve this issue, we propose a novel online
multi-granularity distillation (OMGD) scheme to obtain lightweight GANs, which
contributes to generating high-fidelity images with low computational demands.
We offer the first attempt to popularize single-stage online distillation for
GAN-oriented compression, where the progressively promoted teacher generator
helps to refine the discriminator-free based student generator. Complementary
teacher generators and network layers provide comprehensive and
multi-granularity concepts to enhance visual fidelity from diverse dimensions.
Experimental results on four benchmark datasets demonstrate that OMGD successes
to compress 40x MACs and 82.5X parameters on Pix2Pix and CycleGAN, without loss
of image quality. It reveals that OMGD provides a feasible solution for the
deployment of real-time image translation on resource-constrained devices. Our
code and models are made public at: https://github.com/bytedance/OMGD.
- Abstract(参考訳): generative adversarial networks (gans) は、優れた画像を得ることに成功したが、計算コストやメモリ使用量の軽微さから、リソースに制約のあるデバイスにデプロイするのは面倒である。
GANを圧縮する最近の試みは目覚ましい結果を得たが、潜在的なモデル冗長性が存在し、さらに圧縮することができる。
この問題を解決するため,我々は軽量なGANを得るためのオンライン多粒度蒸留(OMGD)方式を提案し,計算要求の少ない高忠実度画像の生成に寄与する。
我々は,GAN指向圧縮のための単一段階オンライン蒸留を普及させる最初の試みについて紹介する。
補完的な教師ジェネレータとネットワーク層は、様々な次元から視覚的忠実性を高めるために、包括的で多彩な概念を提供する。
4つのベンチマークデータセットの実験結果から、OMGDは画像品質を損なわずにPix2PixとCycleGANで40倍MACと82.5倍パラメータを圧縮することに成功した。
OMGDは、リソース制約のあるデバイスにリアルタイム画像翻訳をデプロイするための、実現可能なソリューションを提供する。
私たちのコードとモデルは、https://github.com/bytedance/OMGDで公開されています。
関連論文リスト
- Discriminator-Cooperated Feature Map Distillation for GAN Compression [69.86835014810714]
そこで本研究では,DCDと略される発明的な識別器協調蒸留を,ジェネレータからより優れた特徴マップを精製するために提案する。
我々のDCDは既存のGAN圧縮法と比較して優れた結果を示した。
論文 参考訳(メタデータ) (2022-12-29T03:50:27Z) - DGL-GAN: Discriminator Guided Learning for GAN Compression [57.6150859067392]
高計算コストのGAN(Generative Adversarial Networks)は、ランダムノイズから高分解能画像を合成する際、顕著な成果を上げている。
本稿では,bf DGL-GAN と呼ばれるバニラ bf GAN を圧縮するための,新しい単純な bf 識別器 bf 誘導 bf 学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-13T09:24:45Z) - MFAGAN: A Compression Framework for Memory-Efficient On-Device
Super-Resolution GAN [27.346272886257335]
本稿では,新しい圧縮フレームワーク textbfMulti-scale textbfFeature textbfAggregation Net based textbfGAN (MFAGAN) を提案する。
MFAGANは、ESRGANと比較して、textbf8.3$times$メモリの節約と textbf42.9$times$計算の削減を達成する。
論文 参考訳(メタデータ) (2021-07-27T09:04:30Z) - Teachers Do More Than Teach: Compressing Image-to-Image Models [35.40756344110666]
generative adversarial networks (gans) は高忠実度画像の生成に多大な成功を収めている。
ganは膨大な計算コストと大量のメモリ使用量のために低効率に苦しむ。
圧縮GANの最近の取り組みは、小型発電機の取得の顕著な進歩を示しています。
論文 参考訳(メタデータ) (2021-03-05T04:29:34Z) - Learning Efficient GANs for Image Translation via Differentiable Masks
and co-Attention Distillation [130.30465659190773]
Generative Adversarial Networks (GAN) は画像翻訳において広く利用されているが、その高い計算とストレージコストがモバイルデバイスへの展開を妨げる。
DMADと呼ばれる新しいGAN圧縮手法を提案する。
実験の結果、DMADはCycleGANのMultiply Accumulate Operations (MAC)を13倍、Pix2Pixを4倍削減し、フルモデルに匹敵する性能を維持することができた。
論文 参考訳(メタデータ) (2020-11-17T02:39:19Z) - TinyGAN: Distilling BigGAN for Conditional Image Generation [2.8072597424460466]
BigGANはImageNetの画像生成の質を大幅に改善しましたが、巨大なモデルが必要で、リソースに制約のあるデバイスへのデプロイが困難になります。
本稿では,GANを圧縮するためのブラックボックス知識蒸留フレームワークを提案する。
教師ネットワークとしてBigGANを前提として、私たちは、インセプションとFIDスコアの競合的なパフォーマンスを達成するために、はるかに小さな学生ネットワークをトレーニングしました。
論文 参考訳(メタデータ) (2020-09-29T07:33:49Z) - GAN Slimming: All-in-One GAN Compression by A Unified Optimization
Framework [94.26938614206689]
本稿では,GANスライミング(GAN Slimming)と呼ばれる,GAN圧縮のための複数の圧縮手段を組み合わせた最初の統一最適化フレームワークを提案する。
我々はGSを用いて、最先端のトランスファーネットワークであるCartoonGANを最大47倍圧縮し、視覚的品質を最小限に抑える。
論文 参考訳(メタデータ) (2020-08-25T14:39:42Z) - AutoGAN-Distiller: Searching to Compress Generative Adversarial Networks [98.71508718214935]
既存のGAN圧縮アルゴリズムは、特定のGANアーキテクチャの処理と損失に限られている。
近年の深部圧縮におけるAutoMLの成功に触発されて,GAN圧縮にAutoMLを導入し,AutoGAN-Distillerフレームワークを開発した。
我々はAGDを画像翻訳と超解像の2つの代表的なGANタスクで評価する。
論文 参考訳(メタデータ) (2020-06-15T07:56:24Z) - Blur, Noise, and Compression Robust Generative Adversarial Networks [85.68632778835253]
劣化画像から直接クリーンな画像生成装置を学習するために, ぼかし, ノイズ, 圧縮堅牢なGAN(BNCR-GAN)を提案する。
NR-GANにインスパイアされたBNCR-GANは、画像、ぼやけたカーネル、ノイズ、品質要素ジェネレータで構成される多重ジェネレータモデルを使用する。
CIFAR-10の大規模比較とFFHQの一般性解析によるBNCR-GANの有効性を実証する。
論文 参考訳(メタデータ) (2020-03-17T17:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。