論文の概要: Learning Efficient GANs for Image Translation via Differentiable Masks
and co-Attention Distillation
- arxiv url: http://arxiv.org/abs/2011.08382v4
- Date: Wed, 2 Mar 2022 09:17:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 16:49:12.364670
- Title: Learning Efficient GANs for Image Translation via Differentiable Masks
and co-Attention Distillation
- Title(参考訳): 微分マスクと共沸蒸留による画像翻訳のための効率よいGANの学習
- Authors: Shaojie Li, Mingbao Lin, Yan Wang, Fei Chao, Ling Shao, Rongrong Ji
- Abstract要約: Generative Adversarial Networks (GAN) は画像翻訳において広く利用されているが、その高い計算とストレージコストがモバイルデバイスへの展開を妨げる。
DMADと呼ばれる新しいGAN圧縮手法を提案する。
実験の結果、DMADはCycleGANのMultiply Accumulate Operations (MAC)を13倍、Pix2Pixを4倍削減し、フルモデルに匹敵する性能を維持することができた。
- 参考スコア(独自算出の注目度): 130.30465659190773
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative Adversarial Networks (GANs) have been widely-used in image
translation, but their high computation and storage costs impede the deployment
on mobile devices. Prevalent methods for CNN compression cannot be directly
applied to GANs due to the peculiarties of GAN tasks and the unstable
adversarial training. To solve these, in this paper, we introduce a novel GAN
compression method, termed DMAD, by proposing a Differentiable Mask and a
co-Attention Distillation. The former searches for a light-weight generator
architecture in a training-adaptive manner. To overcome channel inconsistency
when pruning the residual connections, an adaptive cross-block group sparsity
is further incorporated. The latter simultaneously distills informative
attention maps from both the generator and discriminator of a pre-trained model
to the searched generator, effectively stabilizing the adversarial training of
our light-weight model. Experiments show that DMAD can reduce the Multiply
Accumulate Operations (MACs) of CycleGAN by 13x and that of Pix2Pix by 4x while
retaining a comparable performance against the full model. Our code can be
available at https://github.com/SJLeo/DMAD.
- Abstract(参考訳): Generative Adversarial Networks (GAN) は画像翻訳において広く利用されているが、その高い計算とストレージコストがモバイルデバイスへの展開を妨げる。
CNN圧縮の一般的な方法は、GANタスクの特異性や不安定な敵の訓練のため、GANに直接適用することはできない。
そこで本稿では, 微分マスクと共沸蒸留法を提案することで, DMADと呼ばれる新しいGAN圧縮手法を提案する。
前者は、トレーニング対応の方法で軽量発電機アーキテクチャを検索する。
残差接続を切断する際のチャネル不整合を克服するため、適応的なクロスブロック群間隔をさらに組み込む。
後者は, 事前学習したモデルと判別器の双方からの注意マップを同時に蒸留し, 重み付けモデルの対向訓練を効果的に安定化させる。
実験により、DMADはCycleGANのMultiply Accumulate Operations (MACs)を13倍、Pix2Pixを4倍削減し、フルモデルに対して同等のパフォーマンスを維持することができることが示された。
私たちのコードはhttps://github.com/SJLeo/DMAD.comで利用可能です。
関連論文リスト
- Iterative Token Evaluation and Refinement for Real-World
Super-Resolution [77.74289677520508]
実世界の画像超解像(RWSR)は、低品質(LQ)画像が複雑で未同定の劣化を起こすため、長年にわたる問題である。
本稿では,RWSRのための反復的トークン評価・リファインメントフレームワークを提案する。
ITERはGAN(Generative Adversarial Networks)よりも訓練が容易であり,連続拡散モデルよりも効率的であることを示す。
論文 参考訳(メタデータ) (2023-12-09T17:07:32Z) - DuDGAN: Improving Class-Conditional GANs via Dual-Diffusion [2.458437232470188]
GAN(Generative Adversarial Network)を用いたクラス条件画像生成について,様々な手法を用いて検討した。
本稿では,DuDGANと呼ばれる2次元拡散型ノイズ注入法を取り入れたGANを用いたクラス条件画像生成手法を提案する。
提案手法は,画像生成のための現状条件付きGANモデルよりも性能的に優れている。
論文 参考訳(メタデータ) (2023-05-24T07:59:44Z) - Discriminator-Cooperated Feature Map Distillation for GAN Compression [69.86835014810714]
そこで本研究では,DCDと略される発明的な識別器協調蒸留を,ジェネレータからより優れた特徴マップを精製するために提案する。
我々のDCDは既存のGAN圧縮法と比較して優れた結果を示した。
論文 参考訳(メタデータ) (2022-12-29T03:50:27Z) - Magic ELF: Image Deraining Meets Association Learning and Transformer [63.761812092934576]
本稿では,CNN と Transformer を統合化して,画像デライニングにおける学習のメリットを活用することを目的とする。
降雨除去と背景復旧を関連づける新しいマルチインプット・アテンション・モジュール (MAM) を提案する。
提案手法(ELF)は,最先端手法(MPRNet)を平均0.25dB向上させる。
論文 参考訳(メタデータ) (2022-07-21T12:50:54Z) - Diffusion-GAN: Training GANs with Diffusion [135.24433011977874]
GAN(Generative Adversarial Network)は、安定してトレーニングすることが難しい。
フォワード拡散チェーンを利用してインスタンスノイズを生成する新しいGANフレームワークであるDiffusion-GANを提案する。
我々は,Diffusion-GANにより,最先端のGANよりも高い安定性とデータ効率で,よりリアルな画像を生成することができることを示す。
論文 参考訳(メタデータ) (2022-06-05T20:45:01Z) - MSGDD-cGAN: Multi-Scale Gradients Dual Discriminator Conditional
Generative Adversarial Network [14.08122854653421]
MSGDD-cGANは、条件付き生成逆数ネットワーク(cGAN)の性能を安定化するために提案される。
本モデルでは,CGANのピクセルバージョンと比較してF1スコアが3.18%増加した。
論文 参考訳(メタデータ) (2021-09-12T21:08:37Z) - Online Multi-Granularity Distillation for GAN Compression [17.114017187236836]
GAN(Generative Adversarial Networks)は、優れた画像の獲得に成功している。
GANは、計算コストの最小化とメモリ使用の急激さにより、リソースに制約のあるデバイスにデプロイするのは難しい。
本稿では, 軽量なGANを得るために, オンライン多粒度蒸留方式を提案する。
論文 参考訳(メタデータ) (2021-08-16T05:49:50Z) - Unsupervised Controllable Generation with Self-Training [90.04287577605723]
GANによる制御可能な世代は依然として困難な研究課題である。
本稿では,自己学習を通じてジェネレータを制御する潜伏符号の分布を学習するための教師なしフレームワークを提案する。
我々のフレームワークは、変分オートエンコーダのような他の変種と比較して、より良い絡み合いを示す。
論文 参考訳(メタデータ) (2020-07-17T21:50:35Z) - GAN Compression: Efficient Architectures for Interactive Conditional
GANs [45.012173624111185]
最近のコンディショナル・ジェネレーティブ・アドバイサル・ネットワーク(cGAN)は、現代の認識CNNよりも1~2桁の計算集約性がある。
本稿では,cGANにおけるジェネレータの推論時間とモデルサイズを低減するための汎用圧縮フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-19T17:59:05Z) - AE-OT-GAN: Training GANs from data specific latent distribution [21.48007565143911]
GAN(Generative Adversarial Network)は、現実的かつクリップな画像を生成するモデルである。
GANはしばしばモード崩壊問題に遭遇し、連続DNNを用いて本質的不連続分布変換マップを近似することから訓練に固執する。
最近提案されたAE-OTモデルでは、不連続なdistribu-tion変換マップを明示的に計算することで、この問題に対処している。
本稿では,AE-OT-GANモデルを用いて,高品質な画像を生成すると同時に,モード崩壊/混合問題を克服する。
論文 参考訳(メタデータ) (2020-01-11T01:18:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。