論文の概要: Content-Aware GAN Compression
- arxiv url: http://arxiv.org/abs/2104.02244v1
- Date: Tue, 6 Apr 2021 02:23:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-07 14:09:24.825554
- Title: Content-Aware GAN Compression
- Title(参考訳): コンテンツ対応GAN圧縮
- Authors: Yuchen Liu, Zhixin Shu, Yijun Li, Zhe Lin, Federico Perazzi, S.Y. Kung
- Abstract要約: generative adversarial networks (gans) は様々な画像生成および合成タスクにおいて重要な役割を果たす。
その高い計算コストは、エッジデバイスへの効率的なデプロイを妨げる。
非条件のGAN圧縮に対する新しいアプローチを提案する。
- 参考スコア(独自算出の注目度): 33.83749494060526
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative adversarial networks (GANs), e.g., StyleGAN2, play a vital role in
various image generation and synthesis tasks, yet their notoriously high
computational cost hinders their efficient deployment on edge devices. Directly
applying generic compression approaches yields poor results on GANs, which
motivates a number of recent GAN compression works. While prior works mainly
accelerate conditional GANs, e.g., pix2pix and CycleGAN, compressing
state-of-the-art unconditional GANs has rarely been explored and is more
challenging. In this paper, we propose novel approaches for unconditional GAN
compression. We first introduce effective channel pruning and knowledge
distillation schemes specialized for unconditional GANs. We then propose a
novel content-aware method to guide the processes of both pruning and
distillation. With content-awareness, we can effectively prune channels that
are unimportant to the contents of interest, e.g., human faces, and focus our
distillation on these regions, which significantly enhances the distillation
quality. On StyleGAN2 and SN-GAN, we achieve a substantial improvement over the
state-of-the-art compression method. Notably, we reduce the FLOPs of StyleGAN2
by 11x with visually negligible image quality loss compared to the full-size
model. More interestingly, when applied to various image manipulation tasks,
our compressed model forms a smoother and better disentangled latent manifold,
making it more effective for image editing.
- Abstract(参考訳): GAN(Generative Adversarial Network)、例えばStyleGAN2は、様々な画像生成および合成タスクにおいて重要な役割を果たすが、その高い計算コストはエッジデバイスへの効率的な展開を妨げる。
ジェネリック圧縮のアプローチを直接適用すると、多くのGAN圧縮作業の動機となるGANの貧弱な結果が得られる。
主に条件付きgan、例えばpix2pixやcycleganを加速するが、最先端の無条件ganを圧縮することは稀であり、より困難である。
本稿では,非条件GAN圧縮のための新しい手法を提案する。
まず,無条件のGANに特化して,効率的なチャネルプレーニングと知識蒸留方式を導入する。
次に, プルーニングと蒸留の両方の過程を導く新しいコンテンツ認識法を提案する。
コンテンツ認識により、人間の顔など、興味のある内容に重要でないチャネルを効果的にプルーピングし、蒸留をこれらの領域に集中させ、蒸留品質を大幅に向上させることができる。
StyleGAN2 と SN-GAN では、最先端圧縮法よりも大幅に改善されている。
特に,StyleGAN2のFLOPを,フルサイズモデルと比較して視覚的に無視可能な画質損失で11倍削減する。
より興味深いことに、様々な画像操作タスクに適用すると、圧縮されたモデルはより滑らかでより不規則なラテント多様体を形成し、画像編集に有効である。
関連論文リスト
- DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - Online Multi-Granularity Distillation for GAN Compression [17.114017187236836]
GAN(Generative Adversarial Networks)は、優れた画像の獲得に成功している。
GANは、計算コストの最小化とメモリ使用の急激さにより、リソースに制約のあるデバイスにデプロイするのは難しい。
本稿では, 軽量なGANを得るために, オンライン多粒度蒸留方式を提案する。
論文 参考訳(メタデータ) (2021-08-16T05:49:50Z) - GAN Slimming: All-in-One GAN Compression by A Unified Optimization
Framework [94.26938614206689]
本稿では,GANスライミング(GAN Slimming)と呼ばれる,GAN圧縮のための複数の圧縮手段を組み合わせた最初の統一最適化フレームワークを提案する。
我々はGSを用いて、最先端のトランスファーネットワークであるCartoonGANを最大47倍圧縮し、視覚的品質を最小限に抑える。
論文 参考訳(メタデータ) (2020-08-25T14:39:42Z) - Early Exit or Not: Resource-Efficient Blind Quality Enhancement for
Compressed Images [54.40852143927333]
ロスシー画像圧縮は、通信帯域を節約するために広範に行われ、望ましくない圧縮アーティファクトをもたらす。
圧縮画像に対する資源効率の高いブラインド品質向上手法(RBQE)を提案する。
提案手法は, 評価された画像の品質に応じて, 自動的にエンハンスメントを終了するか, 継続するかを決定することができる。
論文 参考訳(メタデータ) (2020-06-30T07:38:47Z) - AutoGAN-Distiller: Searching to Compress Generative Adversarial Networks [98.71508718214935]
既存のGAN圧縮アルゴリズムは、特定のGANアーキテクチャの処理と損失に限られている。
近年の深部圧縮におけるAutoMLの成功に触発されて,GAN圧縮にAutoMLを導入し,AutoGAN-Distillerフレームワークを開発した。
我々はAGDを画像翻訳と超解像の2つの代表的なGANタスクで評価する。
論文 参考訳(メタデータ) (2020-06-15T07:56:24Z) - GAN Compression: Efficient Architectures for Interactive Conditional
GANs [45.012173624111185]
最近のコンディショナル・ジェネレーティブ・アドバイサル・ネットワーク(cGAN)は、現代の認識CNNよりも1~2桁の計算集約性がある。
本稿では,cGANにおけるジェネレータの推論時間とモデルサイズを低減するための汎用圧縮フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-19T17:59:05Z) - Blur, Noise, and Compression Robust Generative Adversarial Networks [85.68632778835253]
劣化画像から直接クリーンな画像生成装置を学習するために, ぼかし, ノイズ, 圧縮堅牢なGAN(BNCR-GAN)を提案する。
NR-GANにインスパイアされたBNCR-GANは、画像、ぼやけたカーネル、ノイズ、品質要素ジェネレータで構成される多重ジェネレータモデルを使用する。
CIFAR-10の大規模比較とFFHQの一般性解析によるBNCR-GANの有効性を実証する。
論文 参考訳(メタデータ) (2020-03-17T17:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。