論文の概要: AdaBM: On-the-Fly Adaptive Bit Mapping for Image Super-Resolution
- arxiv url: http://arxiv.org/abs/2404.03296v1
- Date: Thu, 4 Apr 2024 08:37:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-05 15:24:04.195583
- Title: AdaBM: On-the-Fly Adaptive Bit Mapping for Image Super-Resolution
- Title(参考訳): AdaBM:画像超解像のためのオンザフライ適応ビットマッピング
- Authors: Cheeun Hong, Kyoung Mu Lee,
- Abstract要約: 我々は、処理時間を数時間から秒に短縮する最初のオンザフライ適応量子化フレームワークを導入する。
我々は,従来の適応量子化法と競合する性能を実現し,処理時間をx2000で高速化する。
- 参考スコア(独自算出の注目度): 53.23803932357899
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Although image super-resolution (SR) problem has experienced unprecedented restoration accuracy with deep neural networks, it has yet limited versatile applications due to the substantial computational costs. Since different input images for SR face different restoration difficulties, adapting computational costs based on the input image, referred to as adaptive inference, has emerged as a promising solution to compress SR networks. Specifically, adapting the quantization bit-widths has successfully reduced the inference and memory cost without sacrificing the accuracy. However, despite the benefits of the resultant adaptive network, existing works rely on time-intensive quantization-aware training with full access to the original training pairs to learn the appropriate bit allocation policies, which limits its ubiquitous usage. To this end, we introduce the first on-the-fly adaptive quantization framework that accelerates the processing time from hours to seconds. We formulate the bit allocation problem with only two bit mapping modules: one to map the input image to the image-wise bit adaptation factor and one to obtain the layer-wise adaptation factors. These bit mappings are calibrated and fine-tuned using only a small number of calibration images. We achieve competitive performance with the previous adaptive quantization methods, while the processing time is accelerated by x2000. Codes are available at https://github.com/Cheeun/AdaBM.
- Abstract(参考訳): 画像超解像(SR)問題は、ディープニューラルネットワークで前例のない復元精度を経験してきたが、計算コストがかなり大きいため、応用範囲は限られている。
SRの異なる入力画像は、異なる復元困難に直面しているため、適応推論と呼ばれる入力画像に基づいて計算コストを適用することが、SRネットワークを圧縮するための有望な解決策として浮上している。
具体的には、量子化ビット幅を適用することで、精度を犠牲にすることなく、推論とメモリコストを削減できる。
しかし、適応ネットワークの利点にもかかわらず、既存の研究は、そのユビキタスな使用を制限する適切なビット割り当てポリシーを学ぶために、元のトレーニングペアに完全にアクセスできる時間集約的な量子化学習に依存している。
そこで本研究では,処理時間を数時間から秒に短縮する,最初のオンザフライ適応量子化フレームワークを提案する。
ビット割り当て問題を2つのビットマッピングモジュールで定式化し、入力画像を画像ワイドビット適応係数にマッピングし、レイヤワイド適応係数を得る。
これらのビットマッピングは、少数のキャリブレーション画像のみを使用して、キャリブレーションされ、微調整される。
我々は,従来の適応量子化法と競合する性能を達成し,処理時間をx2000で高速化する。
コードはhttps://github.com/Cheeun/AdaBMで入手できる。
関連論文リスト
- AdaQAT: Adaptive Bit-Width Quantization-Aware Training [0.873811641236639]
大規模ディープニューラルネットワーク(DNN)は多くのアプリケーションシナリオで大きな成功を収めています。
モデル量子化は、デプロイメントの制約に対処する一般的なアプローチであるが、最適化されたビット幅の探索は困難である。
AdaQAT(Adaptive Bit-Width Quantization Aware Training)は,学習中のビット幅を自動的に最適化し,より効率的な推論を行う学習手法である。
論文 参考訳(メタデータ) (2024-04-22T09:23:56Z) - Overcoming Distribution Mismatch in Quantizing Image Super-Resolution Networks [53.23803932357899]
量子化は画像超解像(SR)ネットワークの精度を低下させる。
既存の作業は、テスト時間中に量子化範囲を動的に適応することで、この分散ミスマッチ問題に対処する。
本稿では,SRネットワークにおける分散ミスマッチ問題を効果的に克服する量子化対応学習手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:50:01Z) - Mixed-Precision Quantization with Cross-Layer Dependencies [6.338965603383983]
混合精度量子化(MPQ)は、様々なビット幅を層に割り当て、精度と効率のトレードオフを最適化する。
既存の手法は、異なる層における量子化誤差が独立に作用すると仮定することでMPQ問題を単純化する。
この仮定は、量子化された深層ニューラルネットワークの真の振舞いを反映していないことを示す。
論文 参考訳(メタデータ) (2023-07-11T15:56:00Z) - CADyQ: Content-Aware Dynamic Quantization for Image Super-Resolution [55.50793823060282]
本稿では,画像超解像(SR)ネットワークのための新しいコンテント・アウェア・ダイナミック量子化(CADyQ)手法を提案する。
CADyQは、入力画像のローカル内容に基づいて、局所領域と層に最適なビットを適応的に割り当てる。
パイプラインは様々なSRネットワークでテストされ、いくつかの標準ベンチマークで評価されている。
論文 参考訳(メタデータ) (2022-07-21T07:50:50Z) - OMPQ: Orthogonal Mixed Precision Quantization [64.59700856607017]
混合精度量子化は、ハードウェアの多重ビット幅演算を利用して、ネットワーク量子化の全ポテンシャルを解き放つ。
本稿では、整数プログラミングの損失と高い相関関係にあるネットワーク性の概念であるプロキシメトリックを最適化することを提案する。
このアプローチは、量子化精度にほとんど妥協することなく、検索時間と必要なデータ量を桁違いに削減する。
論文 参考訳(メタデータ) (2021-09-16T10:59:33Z) - CBANet: Towards Complexity and Bitrate Adaptive Deep Image Compression
using a Single Network [24.418215098116335]
CBANet(Complexity and Bitrate Adaptive Network)と呼ばれる新しいディープ画像圧縮フレームワークを提案する。
我々のCBANetは、動的計算複雑性制約の下での速度と歪みのトレードオフを考察している。
その結果、CBANetでは、計算複雑性の制約によって1つのシングルが複数のデコードをサポートできるようになった。
論文 参考訳(メタデータ) (2021-05-26T08:13:56Z) - DAQ: Distribution-Aware Quantization for Deep Image Super-Resolution
Networks [49.191062785007006]
画像超解像のための深い畳み込みニューラルネットワークの定量化は、計算コストを大幅に削減する。
既存の作業は、4ビット以下の超低精度の厳しい性能低下に苦しむか、または性能を回復するために重い微調整プロセスを必要とします。
高精度なトレーニングフリー量子化を実現する新しい分散認識量子化方式(DAQ)を提案する。
論文 参考訳(メタデータ) (2020-12-21T10:19:42Z) - Fully Quantized Image Super-Resolution Networks [81.75002888152159]
効率と精度を両立させるためのフル量子化画像超解像フレームワーク(FQSR)を提案する。
我々は、SRResNet、SRGAN、EDSRを含む複数の主流超解像アーキテクチャに量子化スキームを適用した。
低ビット量子化を用いたFQSRは、5つのベンチマークデータセットの完全精度と比較すると、パー性能で実現できる。
論文 参考訳(メタデータ) (2020-11-29T03:53:49Z) - FracBits: Mixed Precision Quantization via Fractional Bit-Widths [29.72454879490227]
混合精度量子化は、複数のビット幅での算術演算をサポートするカスタマイズハードウェアで好適である。
本稿では,目標計算制約下での混合精度モデルに基づく学習に基づく新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-04T06:09:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。