論文の概要: AutoGAN-Distiller: Searching to Compress Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2006.08198v2
- Date: Mon, 6 Jul 2020 15:41:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 04:10:15.080770
- Title: AutoGAN-Distiller: Searching to Compress Generative Adversarial Networks
- Title(参考訳): AutoGAN-Distiller: 生成的敵ネットワークを圧縮する検索
- Authors: Yonggan Fu, Wuyang Chen, Haotao Wang, Haoran Li, Yingyan Lin,
Zhangyang Wang
- Abstract要約: 既存のGAN圧縮アルゴリズムは、特定のGANアーキテクチャの処理と損失に限られている。
近年の深部圧縮におけるAutoMLの成功に触発されて,GAN圧縮にAutoMLを導入し,AutoGAN-Distillerフレームワークを開発した。
我々はAGDを画像翻訳と超解像の2つの代表的なGANタスクで評価する。
- 参考スコア(独自算出の注目度): 98.71508718214935
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The compression of Generative Adversarial Networks (GANs) has lately drawn
attention, due to the increasing demand for deploying GANs into mobile devices
for numerous applications such as image translation, enhancement and editing.
However, compared to the substantial efforts to compressing other deep models,
the research on compressing GANs (usually the generators) remains at its
infancy stage. Existing GAN compression algorithms are limited to handling
specific GAN architectures and losses. Inspired by the recent success of AutoML
in deep compression, we introduce AutoML to GAN compression and develop an
AutoGAN-Distiller (AGD) framework. Starting with a specifically designed
efficient search space, AGD performs an end-to-end discovery for new efficient
generators, given the target computational resource constraints. The search is
guided by the original GAN model via knowledge distillation, therefore
fulfilling the compression. AGD is fully automatic, standalone (i.e., needing
no trained discriminators), and generically applicable to various GAN models.
We evaluate AGD in two representative GAN tasks: image translation and super
resolution. Without bells and whistles, AGD yields remarkably lightweight yet
more competitive compressed models, that largely outperform existing
alternatives. Our codes and pretrained models are available at
https://github.com/TAMU-VITA/AGD.
- Abstract(参考訳): gan(generative adversarial networks)の圧縮が注目されているのは,画像翻訳や拡張,編集といった多くのアプリケーションで,モバイルデバイスにganをデプロイする必要性が高まっているためだ。
しかしながら、他の深層モデルの圧縮に多大な努力を払っているのに対し、GAN(通常は発電機)の圧縮に関する研究は初期段階にある。
既存のGAN圧縮アルゴリズムは、特定のGANアーキテクチャの処理と損失に限られている。
深部圧縮におけるAutoMLの成功に触発されて、GAN圧縮にAutoMLを導入し、AutoGAN-Distiller(AGD)フレームワークを開発する。
特別に設計された効率的な検索空間から始め、AGDは対象の計算資源の制約を考慮して、新しい効率的なジェネレータのエンドツーエンドの発見を行う。
探索は、知識蒸留によって元のganモデルに導かれるため、圧縮が満たされる。
AGDは完全に自動化されており、独立した(すなわち、訓練された識別器を必要としない)、様々なGANモデルに適用できる。
我々はAGDを画像翻訳と超解像の2つの代表的なGANタスクで評価する。
ベルとホイッスルがなければ、agdは驚くほど軽量でより競争力のある圧縮モデルを生み出す。
私たちのコードと事前訓練済みモデルはhttps://github.com/TAMU-VITA/AGD.comで公開されています。
関連論文リスト
- DGL-GAN: Discriminator Guided Learning for GAN Compression [57.6150859067392]
高計算コストのGAN(Generative Adversarial Networks)は、ランダムノイズから高分解能画像を合成する際、顕著な成果を上げている。
本稿では,bf DGL-GAN と呼ばれるバニラ bf GAN を圧縮するための,新しい単純な bf 識別器 bf 誘導 bf 学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-13T09:24:45Z) - Revisiting Discriminator in GAN Compression: A Generator-discriminator
Cooperative Compression Scheme [65.5405625485559]
GAN圧縮は、リソース制約のあるエッジデバイスにGANをデプロイする際の計算オーバーヘッドとメモリ使用量を大幅に削減することを目的としている。
本稿では,GAN圧縮における識別器の役割を再考し,GAN圧縮のための新しいジェネレータ-識別器協調圧縮スキームであるGCCを設計する。
論文 参考訳(メタデータ) (2021-10-27T13:54:55Z) - Online Multi-Granularity Distillation for GAN Compression [17.114017187236836]
GAN(Generative Adversarial Networks)は、優れた画像の獲得に成功している。
GANは、計算コストの最小化とメモリ使用の急激さにより、リソースに制約のあるデバイスにデプロイするのは難しい。
本稿では, 軽量なGANを得るために, オンライン多粒度蒸留方式を提案する。
論文 参考訳(メタデータ) (2021-08-16T05:49:50Z) - A Survey on GAN Acceleration Using Memory Compression Technique [1.6758573326215689]
GAN(Generative Adversarial Network)は多くのアプリケーションで顕著な結果を示している。
本稿では,CNN ベース GAN のメモリ圧縮技術について検討する。
論文 参考訳(メタデータ) (2021-08-14T23:03:14Z) - You Only Compress Once: Towards Effective and Elastic BERT Compression
via Exploit-Explore Stochastic Nature Gradient [88.58536093633167]
既存のモデル圧縮アプローチでは、さまざまなハードウェアデプロイメントに対応するために、さまざまな制約にまたがる再圧縮や微調整が必要となる。
圧縮を一度行い、至るところに展開するための新しいアプローチであるYOCO-BERTを提案する。
最先端のアルゴリズムと比較すると、YOCO-BERTはよりコンパクトなモデルを提供するが、GLUEベンチマークの平均精度は2.1%-4.5%向上している。
論文 参考訳(メタデータ) (2021-06-04T12:17:44Z) - Learning Efficient GANs for Image Translation via Differentiable Masks
and co-Attention Distillation [130.30465659190773]
Generative Adversarial Networks (GAN) は画像翻訳において広く利用されているが、その高い計算とストレージコストがモバイルデバイスへの展開を妨げる。
DMADと呼ばれる新しいGAN圧縮手法を提案する。
実験の結果、DMADはCycleGANのMultiply Accumulate Operations (MAC)を13倍、Pix2Pixを4倍削減し、フルモデルに匹敵する性能を維持することができた。
論文 参考訳(メタデータ) (2020-11-17T02:39:19Z) - GAN Slimming: All-in-One GAN Compression by A Unified Optimization
Framework [94.26938614206689]
本稿では,GANスライミング(GAN Slimming)と呼ばれる,GAN圧縮のための複数の圧縮手段を組み合わせた最初の統一最適化フレームワークを提案する。
我々はGSを用いて、最先端のトランスファーネットワークであるCartoonGANを最大47倍圧縮し、視覚的品質を最小限に抑える。
論文 参考訳(メタデータ) (2020-08-25T14:39:42Z) - Self-Supervised GAN Compression [32.21713098893454]
従来の手法では,標準モデル圧縮手法であるウェイトプルーニングがGANに適用できないことを示す。
次に、訓練された判別器を用いて圧縮発電機の訓練を監督する自己教師圧縮手法を開発する。
我々は,このフレームワークが高い疎度に対して魅力的な性能を示し,新しいタスクやモデルに容易に適用できることを示し,異なるプルーニング粒度間の有意義な比較を可能にする。
論文 参考訳(メタデータ) (2020-07-03T04:18:54Z) - GAN Compression: Efficient Architectures for Interactive Conditional
GANs [45.012173624111185]
最近のコンディショナル・ジェネレーティブ・アドバイサル・ネットワーク(cGAN)は、現代の認識CNNよりも1~2桁の計算集約性がある。
本稿では,cGANにおけるジェネレータの推論時間とモデルサイズを低減するための汎用圧縮フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-19T17:59:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。