論文の概要: MFAGAN: A Compression Framework for Memory-Efficient On-Device
Super-Resolution GAN
- arxiv url: http://arxiv.org/abs/2107.12679v1
- Date: Tue, 27 Jul 2021 09:04:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-28 22:36:10.603438
- Title: MFAGAN: A Compression Framework for Memory-Efficient On-Device
Super-Resolution GAN
- Title(参考訳): MFAGAN: メモリ効率の良いオンデバイススーパーリゾリューションGANのための圧縮フレームワーク
- Authors: Wenlong Cheng and Mingbo Zhao and Zhiling Ye and Shuhang Gu
- Abstract要約: 本稿では,新しい圧縮フレームワーク textbfMulti-scale textbfFeature textbfAggregation Net based textbfGAN (MFAGAN) を提案する。
MFAGANは、ESRGANと比較して、textbf8.3$times$メモリの節約と textbf42.9$times$計算の削減を達成する。
- 参考スコア(独自算出の注目度): 27.346272886257335
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Generative adversarial networks (GANs) have promoted remarkable advances in
single-image super-resolution (SR) by recovering photo-realistic images.
However, high memory consumption of GAN-based SR (usually generators) causes
performance degradation and more energy consumption, hindering the deployment
of GAN-based SR into resource-constricted mobile devices. In this paper, we
propose a novel compression framework \textbf{M}ulti-scale \textbf{F}eature
\textbf{A}ggregation Net based \textbf{GAN} (MFAGAN) for reducing the memory
access cost of the generator. First, to overcome the memory explosion of dense
connections, we utilize a memory-efficient multi-scale feature aggregation net
as the generator. Second, for faster and more stable training, our method
introduces the PatchGAN discriminator. Third, to balance the student
discriminator and the compressed generator, we distill both the generator and
the discriminator. Finally, we perform a hardware-aware neural architecture
search (NAS) to find a specialized SubGenerator for the target mobile phone.
Benefiting from these improvements, the proposed MFAGAN achieves up to
\textbf{8.3}$\times$ memory saving and \textbf{42.9}$\times$ computation
reduction, with only minor visual quality degradation, compared with ESRGAN.
Empirical studies also show $\sim$\textbf{70} milliseconds latency on Qualcomm
Snapdragon 865 chipset.
- Abstract(参考訳): GAN(Generative Adversarial Network)は、フォトリアリスティック画像の復元により、単一像超解像(SR)の顕著な進歩を促進している。
しかしながら、GANベースのSR(通常はジェネレータ)の高メモリ消費は、パフォーマンスの低下とエネルギー消費の増大を引き起こし、リソース制限されたモバイルデバイスへのGANベースのSRの展開を妨げる。
本稿では,新しい圧縮フレームワーク \textbf{M}ulti-scale \textbf{F}eature \textbf{A}ggregation Net based \textbf{GAN} (MFAGAN) を提案する。
まず,高密度接続のメモリ爆発を克服するために,メモリ効率の高いマルチスケール特徴集約ネットをジェネレータとして利用する。
第2に,より速く,より安定した訓練を行うために,PatchGAN判別器を導入する。
第3に, 生徒判別器と圧縮発生器のバランスをとるため, 生成器と判別器の両方を蒸留する。
最後に、ハードウェア対応のニューラルネットワークサーチ(NAS)を実行し、ターゲットの携帯電話用の特別なサブジェネレータを見つける。
これらの改善により、提案されたMFAGANは、ESRGANと比較して、わずかに視覚的品質の劣化しかなく、 \textbf{8.3}$\times$メモリの節約と \textbf{42.9}$\times$計算の削減を達成する。
Qualcomm Snapdragon 865チップセットでは、ミリ秒のレイテンシが$\sim$\textbf{70} である。
関連論文リスト
- MF-NeRF: Memory Efficient NeRF with Mixed-Feature Hash Table [62.164549651134465]
MF-NeRFは,Mixed-Featureハッシュテーブルを用いてメモリ効率を向上し,再構成品質を維持しながらトレーニング時間を短縮するメモリ効率の高いNeRFフレームワークである。
最新技術であるInstant-NGP、TensoRF、DVGOによる実験は、MF-NeRFが同じGPUハードウェア上で、同様のあるいはそれ以上のリコンストラクション品質で最速のトレーニング時間を達成できることを示唆している。
論文 参考訳(メタデータ) (2023-04-25T05:44:50Z) - GRAN: Ghost Residual Attention Network for Single Image Super Resolution [44.4178326950426]
本稿では,Ghost Residual Attention Block (GRAB) グループを導入し,標準的な畳み込み操作の欠点を克服する。
Ghost Moduleは、標準の畳み込みを置き換えるために線形操作を採用することで、本質的な機能の基盤となる情報を明らかにすることができる。
ベンチマークデータセットを用いて行った実験は,定性的・定量的に,本手法の優れた性能を示すものである。
論文 参考訳(メタデータ) (2023-02-28T13:26:24Z) - Fast and Memory-Efficient Network Towards Efficient Image
Super-Resolution [44.909233016062906]
我々は、資源制約のあるデバイスのためのメモリ効率の高い画像超解像ネットワーク(FMEN)を構築した。
FMENは、最先端のEISRモデルであるE-RFDNと比較して33%高速で、メモリ消費を74%削減する。
FMEN-S は NTIRE 2022 の高効率超解像における最小のメモリ消費と2番目に短いランタイムを実現する。
論文 参考訳(メタデータ) (2022-04-18T16:49:20Z) - Self-Gated Memory Recurrent Network for Efficient Scalable HDR
Deghosting [59.04604001936661]
本稿では,任意の長さの動的シーケンスを浮き彫りにする新しいネットワーク型HDRデゴースト法を提案する。
本稿では,SGM(Self-Gated Memory)セルという新たなリカレントセルアーキテクチャを導入する。
提案手法は,既存の3つの公開データセットを定量的に比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2021-12-24T12:36:33Z) - Generative Optimization Networks for Memory Efficient Data Generation [11.452816167207937]
本稿では,生成最適化ネットワーク(GON)と呼ばれる新しいフレームワークを提案する。
GONは単一の識別器ネットワークを使用し、入力空間で最適化を行い、新しいデータサンプルを生成し、トレーニング時間とメモリ消費の効果的な妥協を実現する。
我々のフレームワークでは、検出F1スコアが最大で32%、メモリ消費が58%、トレーニングオーバーヘッドが最先端と比較してわずか5%高いことが示されています。
論文 参考訳(メタデータ) (2021-10-06T16:54:33Z) - Online Multi-Granularity Distillation for GAN Compression [17.114017187236836]
GAN(Generative Adversarial Networks)は、優れた画像の獲得に成功している。
GANは、計算コストの最小化とメモリ使用の急激さにより、リソースに制約のあるデバイスにデプロイするのは難しい。
本稿では, 軽量なGANを得るために, オンライン多粒度蒸留方式を提案する。
論文 参考訳(メタデータ) (2021-08-16T05:49:50Z) - GAN Slimming: All-in-One GAN Compression by A Unified Optimization
Framework [94.26938614206689]
本稿では,GANスライミング(GAN Slimming)と呼ばれる,GAN圧縮のための複数の圧縮手段を組み合わせた最初の統一最適化フレームワークを提案する。
我々はGSを用いて、最先端のトランスファーネットワークであるCartoonGANを最大47倍圧縮し、視覚的品質を最小限に抑える。
論文 参考訳(メタデータ) (2020-08-25T14:39:42Z) - AutoGAN-Distiller: Searching to Compress Generative Adversarial Networks [68.58179110398439]
既存のGAN圧縮アルゴリズムは、特定のGANアーキテクチャの処理と損失に限られている。
近年の深部圧縮におけるAutoMLの成功に触発されて,GAN圧縮にAutoMLを導入し,AutoGAN-Distillerフレームワークを開発した。
我々はAGDを画像翻訳と超解像の2つの代表的なGANタスクで評価する。
論文 参考訳(メタデータ) (2020-06-15T07:56:24Z) - Blur, Noise, and Compression Robust Generative Adversarial Networks [85.68632778835253]
劣化画像から直接クリーンな画像生成装置を学習するために, ぼかし, ノイズ, 圧縮堅牢なGAN(BNCR-GAN)を提案する。
NR-GANにインスパイアされたBNCR-GANは、画像、ぼやけたカーネル、ノイズ、品質要素ジェネレータで構成される多重ジェネレータモデルを使用する。
CIFAR-10の大規模比較とFFHQの一般性解析によるBNCR-GANの有効性を実証する。
論文 参考訳(メタデータ) (2020-03-17T17:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。