論文の概要: GAN Compression: Efficient Architectures for Interactive Conditional
GANs
- arxiv url: http://arxiv.org/abs/2003.08936v4
- Date: Thu, 11 Nov 2021 03:45:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 04:50:21.317171
- Title: GAN Compression: Efficient Architectures for Interactive Conditional
GANs
- Title(参考訳): GAN圧縮:対話型条件付きGANのための効率的なアーキテクチャ
- Authors: Muyang Li, Ji Lin, Yaoyao Ding, Zhijian Liu, Jun-Yan Zhu, Song Han
- Abstract要約: 最近のコンディショナル・ジェネレーティブ・アドバイサル・ネットワーク(cGAN)は、現代の認識CNNよりも1~2桁の計算集約性がある。
本稿では,cGANにおけるジェネレータの推論時間とモデルサイズを低減するための汎用圧縮フレームワークを提案する。
- 参考スコア(独自算出の注目度): 45.012173624111185
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conditional Generative Adversarial Networks (cGANs) have enabled controllable
image synthesis for many vision and graphics applications. However, recent
cGANs are 1-2 orders of magnitude more compute-intensive than modern
recognition CNNs. For example, GauGAN consumes 281G MACs per image, compared to
0.44G MACs for MobileNet-v3, making it difficult for interactive deployment. In
this work, we propose a general-purpose compression framework for reducing the
inference time and model size of the generator in cGANs. Directly applying
existing compression methods yields poor performance due to the difficulty of
GAN training and the differences in generator architectures. We address these
challenges in two ways. First, to stabilize GAN training, we transfer knowledge
of multiple intermediate representations of the original model to its
compressed model and unify unpaired and paired learning. Second, instead of
reusing existing CNN designs, our method finds efficient architectures via
neural architecture search. To accelerate the search process, we decouple the
model training and search via weight sharing. Experiments demonstrate the
effectiveness of our method across different supervision settings, network
architectures, and learning methods. Without losing image quality, we reduce
the computation of CycleGAN by 21x, Pix2pix by 12x, MUNIT by 29x, and GauGAN by
9x, paving the way for interactive image synthesis.
- Abstract(参考訳): conditional generative adversarial networks (cgans)は、多くの視覚およびグラフィックアプリケーションで制御可能な画像合成を可能にした。
しかし、最近のcGANは現代の認識CNNよりも1-2桁の計算集約性がある。
例えば、GauGANは画像当たり281GのMACを消費し、MobileNet-v3の0.44GのMACを消費する。
本研究では,cGANにおけるジェネレータの推論時間とモデルサイズを低減するための汎用圧縮フレームワークを提案する。
既存の圧縮手法を直接適用すると、GANトレーニングの難しさとジェネレータアーキテクチャの違いにより性能が低下する。
我々はこれらの課題を2つの方法で解決する。
まず、GANトレーニングを安定化させるために、原モデルの複数の中間表現の知識を圧縮モデルに転送し、未ペア学習とペア学習を統一する。
第2に,既存のcnn設計を再利用する代わりに,ニューラルネットワークによる効率的なアーキテクチャを探索する手法を提案する。
検索プロセスを高速化するために,モデルトレーニングとウェイトシェアリングによる検索を分離する。
実験は,様々な監督設定,ネットワークアーキテクチャ,学習方法において,提案手法の有効性を示す。
画像品質を損なうことなく、CycleGANを21倍、Pix2pixを12倍、MUNITを29倍、GauGANを9倍に減らし、インタラクティブな画像合成を行う。
関連論文リスト
- Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - FMD-cGAN: Fast Motion Deblurring using Conditional Generative
Adversarial Networks [26.878173373199786]
本稿では,1枚の画像の視覚的動きを識別するFMD-cGAN(Fast Motion Deblurring-Conditional Generative Adversarial Network)を提案する。
FMD-cGANは、画像が損なわれた後、印象的な構造的類似性と視覚的外観を提供する。
論文 参考訳(メタデータ) (2021-11-30T14:30:44Z) - Learning Efficient GANs for Image Translation via Differentiable Masks
and co-Attention Distillation [130.30465659190773]
Generative Adversarial Networks (GAN) は画像翻訳において広く利用されているが、その高い計算とストレージコストがモバイルデバイスへの展開を妨げる。
DMADと呼ばれる新しいGAN圧縮手法を提案する。
実験の結果、DMADはCycleGANのMultiply Accumulate Operations (MAC)を13倍、Pix2Pixを4倍削減し、フルモデルに匹敵する性能を維持することができた。
論文 参考訳(メタデータ) (2020-11-17T02:39:19Z) - Efficient texture-aware multi-GAN for image inpainting [5.33024001730262]
近年のGAN (Generative Adversarial Network) のインペイント手法は顕著に改善されている。
本稿では,性能とレンダリング効率の両方を改善するマルチGANアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-09-30T14:58:03Z) - GAN Slimming: All-in-One GAN Compression by A Unified Optimization
Framework [94.26938614206689]
本稿では,GANスライミング(GAN Slimming)と呼ばれる,GAN圧縮のための複数の圧縮手段を組み合わせた最初の統一最適化フレームワークを提案する。
我々はGSを用いて、最先端のトランスファーネットワークであるCartoonGANを最大47倍圧縮し、視覚的品質を最小限に抑える。
論文 参考訳(メタデータ) (2020-08-25T14:39:42Z) - Fidelity-Controllable Extreme Image Compression with Generative
Adversarial Networks [10.036312061637764]
本稿では,GANに基づく画像圧縮手法を提案する。
両欠点に対処するため,本手法では2段階のトレーニングとネットワークを採用している。
実験結果から,高品質な画像の再構成が可能であることが示唆された。
論文 参考訳(メタデータ) (2020-08-24T10:45:19Z) - InfoMax-GAN: Improved Adversarial Image Generation via Information
Maximization and Contrastive Learning [39.316605441868944]
GAN(Generative Adversarial Networks)は、多くのジェネレーティブモデリングアプリケーションの基本である。
本稿では,GANにおける2つの基本的な問題を同時に緩和する基本的枠組みを提案する。
提案手法は, 5つのデータセットにわたる画像合成において, GANトレーニングを著しく安定化し, GAN性能を向上させる。
論文 参考訳(メタデータ) (2020-07-09T06:56:11Z) - Freeze the Discriminator: a Simple Baseline for Fine-Tuning GANs [104.85633684716296]
判別器の冷凍下層を有するGANの簡易微調整が驚くほど良好であることを示す。
この単純なベースラインであるFreezeDは、非条件GANと条件GANの両方で使用されている従来の技術よりも大幅に優れている。
論文 参考訳(メタデータ) (2020-02-25T15:30:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。