論文の概要: Towards Clip-Free Quantized Super-Resolution Networks: How to Tame
Representative Images
- arxiv url: http://arxiv.org/abs/2308.11365v1
- Date: Tue, 22 Aug 2023 11:41:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-23 18:21:52.331046
- Title: Towards Clip-Free Quantized Super-Resolution Networks: How to Tame
Representative Images
- Title(参考訳): クリップフリー量子化スーパーレゾリューションネットワークに向けて:代表画像のモザイクの方法
- Authors: Alperen Kalay, Bahri Batuhan Bilecen, Mustafa Ayazoglu
- Abstract要約: この研究は、非常に重要だがほとんど見落とされがちなポストトレーニング量子化ステップに焦点をあてる:代表データセット(RD)
本稿では,FP32モデルの出力のみを用いることで,RD画像を巧みに増大させる実験的な正当化を伴って,新しいパイプライン(クリップフリー量子化パイプライン,CFQP)を提案する。
- 参考スコア(独自算出の注目度): 16.18371675853725
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Super-resolution (SR) networks have been investigated for a while, with their
mobile and lightweight versions gaining noticeable popularity recently.
Quantization, the procedure of decreasing the precision of network parameters
(mostly FP32 to INT8), is also utilized in SR networks for establishing mobile
compatibility. This study focuses on a very important but mostly overlooked
post-training quantization (PTQ) step: representative dataset (RD), which
adjusts the quantization range for PTQ. We propose a novel pipeline (clip-free
quantization pipeline, CFQP) backed up with extensive experimental
justifications to cleverly augment RD images by only using outputs of the FP32
model. Using the proposed pipeline for RD, we can successfully eliminate
unwanted clipped activation layers, which nearly all mobile SR methods utilize
to make the model more robust to PTQ in return for a large overhead in runtime.
Removing clipped activations with our method significantly benefits overall
increased stability, decreased inference runtime up to 54% on some SR models,
better visual quality results compared to INT8 clipped models - and outperforms
even some FP32 non-quantized models, both in runtime and visual quality,
without the need for retraining with clipped activation.
- Abstract(参考訳): 超高解像度(SR)ネットワークは、モバイル版と軽量版が最近注目されている。
ネットワークパラメータ(主にFP32からINT8)の精度を下げる量子化は、SRネットワークでモバイル互換性を確立するためにも利用される。
本研究は、PTQの量子化範囲を調整する代表的データセット(RD)という、非常に重要だが見落とされがちな後量子化(PTQ)ステップに焦点を当てる。
本稿では,FP32モデルの出力のみを用いることで,RD画像を巧みに増大させる実験的な正当化を伴って,新しいパイプライン(クリップフリー量子化パイプライン,CFQP)を提案する。
提案したRDパイプラインを用いることで、ほぼすべてのモバイルSRメソッドが、実行時の大きなオーバーヘッドに対してPTQに対してより堅牢なモデルを実現するために、不要なクリップされたアクティベーション層を除去できる。
この方法によるクリップトアクティベーションの除去は、全体的な安定性の向上、srモデルで最大54%の推論ランタイムの低下、int8クリップトモデルと比較して視覚品質の向上、そして、クリップトアクティベーションで再トレーニングする必要なしに、実行時と視覚品質の両方においてfp32非量子化モデルよりも優れています。
関連論文リスト
- PassionSR: Post-Training Quantization with Adaptive Scale in One-Step Diffusion based Image Super-Resolution [87.89013794655207]
拡散に基づく画像超解像(SR)モデルでは、複数のデノナイジングステップのコストで優れた性能を示す。
本稿では,一段階拡散(OSD)画像SR,PassionSRにおける適応スケールの学習後量子化手法を提案する。
我々のPassionSRは、画像SRの最近の先進的な低ビット量子化法に対して大きな利点がある。
論文 参考訳(メタデータ) (2024-11-26T04:49:42Z) - Transforming Image Super-Resolution: A ConvFormer-based Efficient Approach [58.57026686186709]
本稿では, Convolutional Transformer Layer (ConvFormer) を導入し, ConvFormer-based Super-Resolution Network (CFSR) を提案する。
CFSRは畳み込みベースのアプローチとトランスフォーマーベースのアプローチの両方の利点を継承する。
CFSRは計算コストと性能のバランスが最適であることを示す実験である。
論文 参考訳(メタデータ) (2024-01-11T03:08:00Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Residual Local Feature Network for Efficient Super-Resolution [20.62809970985125]
本研究では,Residual Local Feature Network (RLFN)を提案する。
主なアイデアは、3つの畳み込みレイヤを局所的な特徴学習に使用して、機能の集約を単純化することだ。
さらに,NTIRE 2022の高効率超解像問題において,第1位を獲得した。
論文 参考訳(メタデータ) (2022-05-16T08:46:34Z) - LAPAR: Linearly-Assembled Pixel-Adaptive Regression Network for Single
Image Super-Resolution and Beyond [75.37541439447314]
単一画像超解像(SISR)は、低解像度(LR)画像を高解像度(HR)バージョンにアップサンプリングする根本的な問題を扱う。
本稿では,線形組立画素適応回帰ネットワーク (LAPAR) を提案する。
論文 参考訳(メタデータ) (2021-05-21T15:47:18Z) - Learning Frequency-aware Dynamic Network for Efficient Super-Resolution [56.98668484450857]
本稿では、離散コサイン変換(dct)領域の係数に応じて入力を複数の部分に分割する新しい周波数認識動的ネットワークについて検討する。
実際、高周波部は高価な操作で処理され、低周波部は計算負荷を軽減するために安価な操作が割り当てられる。
ベンチマークSISRモデルおよびデータセット上での実験は、周波数認識動的ネットワークが様々なSISRニューラルネットワークに使用できることを示している。
論文 参考訳(メタデータ) (2021-03-15T12:54:26Z) - Enabling Retrain-free Deep Neural Network Pruning using Surrogate
Lagrangian Relaxation [2.691929135895278]
サロゲート・ラグランジアン・リラクゼーション(SLR)に基づく体系的な軽量化最適化手法を開発。
SLRは、同じ精度で最先端技術よりも高い圧縮率を達成する。
再学習の予算が限られているため,本手法はモデル精度を迅速に回復する。
論文 参考訳(メタデータ) (2020-12-18T07:17:30Z) - PAMS: Quantized Super-Resolution via Parameterized Max Scale [84.55675222525608]
深部畳み込みニューラルネットワーク(DCNN)は超解像処理(SR)において優位な性能を示した
本稿では,PAMS(Parameterized Max Scale)と呼ばれる新しい量子化手法を提案する。
実験により,提案手法はEDSRやRDNなどの既存のSRモデルを適切に圧縮・高速化できることが示された。
論文 参考訳(メタデータ) (2020-11-09T06:16:05Z) - Sub-Pixel Back-Projection Network For Lightweight Single Image
Super-Resolution [17.751425965791718]
我々は,CNNに基づくSISR手法のパラメータ数と計算コストの削減について検討した。
SISRのための新しいネットワークアーキテクチャを導入し、再構成品質と低計算量とのトレードオフをうまく打ち立てる。
論文 参考訳(メタデータ) (2020-08-03T18:15:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。