論文の概要: Fully Quantized Image Super-Resolution Networks
- arxiv url: http://arxiv.org/abs/2011.14265v2
- Date: Mon, 19 Apr 2021 03:38:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-07 08:58:13.415132
- Title: Fully Quantized Image Super-Resolution Networks
- Title(参考訳): 完全量子化画像超解像ネットワーク
- Authors: Hu Wang, Peng Chen, Bohan Zhuang, Chunhua Shen
- Abstract要約: 効率と精度を両立させるためのフル量子化画像超解像フレームワーク(FQSR)を提案する。
我々は、SRResNet、SRGAN、EDSRを含む複数の主流超解像アーキテクチャに量子化スキームを適用した。
低ビット量子化を用いたFQSRは、5つのベンチマークデータセットの完全精度と比較すると、パー性能で実現できる。
- 参考スコア(独自算出の注目度): 81.75002888152159
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: With the rising popularity of intelligent mobile devices, it is of great
practical significance to develop accurate, realtime and energy-efficient image
Super-Resolution (SR) inference methods. A prevailing method for improving the
inference efficiency is model quantization, which allows for replacing the
expensive floating-point operations with efficient fixed-point or bitwise
arithmetic. To date, it is still challenging for quantized SR frameworks to
deliver feasible accuracy-efficiency trade-off. Here, we propose a Fully
Quantized image Super-Resolution framework (FQSR) to jointly optimize
efficiency and accuracy. In particular, we target on obtaining end-to-end
quantized models for all layers, especially including skip connections, which
was rarely addressed in the literature. We further identify training obstacles
faced by low-bit SR networks and propose two novel methods accordingly. The two
difficulites are caused by 1) activation and weight distributions being vastly
distinctive in different layers; 2) the inaccurate approximation of the
quantization. We apply our quantization scheme on multiple mainstream
super-resolution architectures, including SRResNet, SRGAN and EDSR.
Experimental results show that our FQSR using low bits quantization can achieve
on par performance compared with the full-precision counterparts on five
benchmark datasets and surpass state-of-the-art quantized SR methods with
significantly reduced computational cost and memory consumption.
- Abstract(参考訳): インテリジェントなモバイルデバイスの普及に伴い、高精度でリアルタイムでエネルギー効率の高い画像超解法(SR)の推論手法を開発することは、非常に実用的に重要である。
モデル量子化(model quantization)は、高価な浮動小数点演算を効率的な不動小数点演算やビット演算に置き換える手法である。
今のところ、量子化SRフレームワークが実現可能な精度効率トレードオフを実現することは、依然として困難である。
本稿では,効率と精度を両立させるFQSR(Fully Quantized Image Super-Resolution framework)を提案する。
特に,全層に対するエンドツーエンド量子化モデル,特にスキップ接続の獲得を目標としており,文献にはほとんど触れられていない。
さらに、低ビットSRネットワークが直面する学習障害を特定し、2つの新しい手法を提案する。
2つの回折は, 1) 活性化と重み分布が異なる層で大きく異なること, 2) 量子化の不正確な近似によって引き起こされる。
我々は、SRResNet、SRGAN、EDSRを含む複数の主流超解像アーキテクチャに量子化スキームを適用した。
実験結果から,低ビット量子化を用いたFQSRは,5つのベンチマークデータセットの完全精度に比較して,計算コストとメモリ消費を大幅に削減した最先端の数値化SR手法を克服できることがわかった。
関連論文リスト
- PassionSR: Post-Training Quantization with Adaptive Scale in One-Step Diffusion based Image Super-Resolution [87.89013794655207]
拡散に基づく画像超解像(SR)モデルでは、複数のデノナイジングステップのコストで優れた性能を示す。
本稿では,一段階拡散(OSD)画像SR,PassionSRにおける適応スケールの学習後量子化手法を提案する。
我々のPassionSRは、画像SRの最近の先進的な低ビット量子化法に対して大きな利点がある。
論文 参考訳(メタデータ) (2024-11-26T04:49:42Z) - 2DQuant: Low-bit Post-Training Quantization for Image Super-Resolution [83.09117439860607]
低ビット量子化は、エッジ展開のための画像超解像(SR)モデルを圧縮するために広く普及している。
低ビット量子化は、フル精度(FP)と比較してSRモデルの精度を低下させることが知られている。
本稿では2DQuantという画像超解像のための2段階の低ビット後量子化(PTQ)法を提案する。
論文 参考訳(メタデータ) (2024-06-10T06:06:11Z) - Transforming Image Super-Resolution: A ConvFormer-based Efficient Approach [58.57026686186709]
本稿では, Convolutional Transformer Layer (ConvFormer) を導入し, ConvFormer-based Super-Resolution Network (CFSR) を提案する。
CFSRは畳み込みベースのアプローチとトランスフォーマーベースのアプローチの両方の利点を継承する。
CFSRは計算コストと性能のバランスが最適であることを示す実験である。
論文 参考訳(メタデータ) (2024-01-11T03:08:00Z) - Efficient Model Agnostic Approach for Implicit Neural Representation
Based Arbitrary-Scale Image Super-Resolution [5.704360536038803]
単一の画像超解像(SISR)は、主に深層畳み込みネットワークによって大きく進歩した。
従来のネットワークは、画像を一定のスケールにスケールアップすることに限定されており、任意のスケールのイメージを生成するために暗黙の神経機能を利用することになる。
我々は,任意のスケールで超解像を実現する,新しい,効率的なフレームワークであるMixture of Experts Implicit Super-Resolution(MoEISR)を導入する。
論文 参考訳(メタデータ) (2023-11-20T05:34:36Z) - Neural Networks with Quantization Constraints [111.42313650830248]
量子化学習における制約付き学習手法を提案する。
結果の問題は強い双対であり、勾配推定は不要であることを示す。
提案手法は画像分類タスクにおける競合性能を示す。
論文 参考訳(メタデータ) (2022-10-27T17:12:48Z) - DAQ: Distribution-Aware Quantization for Deep Image Super-Resolution
Networks [49.191062785007006]
画像超解像のための深い畳み込みニューラルネットワークの定量化は、計算コストを大幅に削減する。
既存の作業は、4ビット以下の超低精度の厳しい性能低下に苦しむか、または性能を回復するために重い微調整プロセスを必要とします。
高精度なトレーニングフリー量子化を実現する新しい分散認識量子化方式(DAQ)を提案する。
論文 参考訳(メタデータ) (2020-12-21T10:19:42Z) - PAMS: Quantized Super-Resolution via Parameterized Max Scale [84.55675222525608]
深部畳み込みニューラルネットワーク(DCNN)は超解像処理(SR)において優位な性能を示した
本稿では,PAMS(Parameterized Max Scale)と呼ばれる新しい量子化手法を提案する。
実験により,提案手法はEDSRやRDNなどの既存のSRモデルを適切に圧縮・高速化できることが示された。
論文 参考訳(メタデータ) (2020-11-09T06:16:05Z) - Differentiable Joint Pruning and Quantization for Hardware Efficiency [16.11027058505213]
DJPQは、変動情報ボトルネックに基づく構造化プルーニングと混合ビット精度量子化を1つの微分可能損失関数に組み込む。
DJPQは、複数のネットワークにおけるビット演算数(BOP)を大幅に削減し、元の浮動小数点モデルのトップ1の精度を維持していることを示す。
論文 参考訳(メタデータ) (2020-07-20T20:45:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。