論文の概要: Anchor-based Plain Net for Mobile Image Super-Resolution
- arxiv url: http://arxiv.org/abs/2105.09750v1
- Date: Thu, 20 May 2021 13:52:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-21 13:26:49.751063
- Title: Anchor-based Plain Net for Mobile Image Super-Resolution
- Title(参考訳): モバイル画像超解像のためのアンカーベースプレーンネット
- Authors: Zongcai Du, Jie Liu, Jie Tang and Gangshan Wu
- Abstract要約: 8ビット量子化のための効率的なアーキテクチャを設計し,モバイルデバイスに展開することを目的としている。
我々のモデルはPSNRの点で8ビット量子化FSRCNNを2dB近く上回ることができる。
- 参考スコア(独自算出の注目度): 27.612288100489373
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Along with the rapid development of real-world applications, higher
requirements on the accuracy and efficiency of image super-resolution (SR) are
brought forward. Though existing methods have achieved remarkable success, the
majority of them demand plenty of computational resources and large amount of
RAM, and thus they can not be well applied to mobile device. In this paper, we
aim at designing efficient architecture for 8-bit quantization and deploy it on
mobile device. First, we conduct an experiment about meta-node latency by
decomposing lightweight SR architectures, which determines the portable
operations we can utilize. Then, we dig deeper into what kind of architecture
is beneficial to 8-bit quantization and propose anchor-based plain net (ABPN).
Finally, we adopt quantization-aware training strategy to further boost the
performance. Our model can outperform 8-bit quantized FSRCNN by nearly 2dB in
terms of PSNR, while satisfying realistic needs at the same time. Code is
avaliable at https://github.com/NJU- Jet/SR_Mobile_Quantization.
- Abstract(参考訳): 現実の応用の急速な発展とともに、画像超解像(SR)の精度と効率に対する高い要求がもたらされる。
既存の手法は目覚ましい成功を収めているが、その大半は大量の計算資源と大量のRAMを必要としており、モバイルデバイスにはうまく適用できない。
本稿では,8ビット量子化のための効率的なアーキテクチャを設計し,モバイルデバイスに展開することを目的とする。
まず、軽量srアーキテクチャを分解して、メタノードレイテンシーに関する実験を行い、我々が利用できる可搬性のある操作を決定する。
次に,8ビット量子化にどのようなアーキテクチャが有用かについて詳しく検討し,アンカーベースプレーンネット(ABPN)を提案する。
最後に,量子化アウェアトレーニング戦略を採用し,さらなるパフォーマンス向上を図る。
提案モデルは,PSNRの観点から8ビット量子化FSRCNNを約2dBで上回り,同時に現実的なニーズを満たすことができる。
コードはhttps://github.com/NJU- Jet/SR_Mobile_Quantizationで検証可能である。
関連論文リスト
- DeepGEMM: Accelerated Ultra Low-Precision Inference on CPU Architectures
using Lookup Tables [49.965024476651706]
DeepGEMMはSIMDハードウェア上で超高精度畳み込みニューラルネットワークを実行するためのルックアップテーブルベースのアプローチである。
実装は、x86プラットフォーム上で、対応する8ビット整数カーネルを最大1.74倍の性能で上回る。
論文 参考訳(メタデータ) (2023-04-18T15:13:10Z) - Fast Nearest Convolution for Real-Time Efficient Image Super-Resolution [36.72750683939934]
我々は,NPUに親しみやすい高速最寄りの畳み込みモジュール(NCNet)を備えた単純な平らな畳み込みネットワークを提案し,リアルタイムに信頼性の高い超解像を実現する。
我々のモデルは8ビット量子化で簡単にモバイルデバイスにデプロイでき、すべての主要なモバイルAIアクセラレータと完全に互換性がある。
我々のNCNetは、DIV2K 3xデータセットを用いて訓練し、検証し、他の効率的なSR手法との比較により、NCNetは推論時間が少なくて高い忠実性SR結果が得られることを示した。
論文 参考訳(メタデータ) (2022-08-24T15:23:51Z) - Sub-8-Bit Quantization Aware Training for 8-Bit Neural Network
Accelerator with On-Device Speech Recognition [19.949933989959682]
本稿では,8ビットニューラルネットワークアクセラレータのための新しい8ビット量子化対応トレーニング手法を提案する。
モデルパラメータのサイズを拡大し、単語エラー率を相対的に4-16%削減すると同時に、レイテンシを5%改善しています。
論文 参考訳(メタデータ) (2022-06-30T16:52:07Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - NPAS: A Compiler-aware Framework of Unified Network Pruning and
Architecture Search for Beyond Real-Time Mobile Acceleration [48.25487285358816]
異なるDNNと異なるプルーニングスキームをサポートするコンパイラ自動コード生成フレームワークを提案する。
また,NPAS,コンパイラ対応統合ネットワークプルーニング,アーキテクチャ検索を提案する。
我々のフレームワークは,市販携帯電話でそれぞれ78.2%,75%(MobileNet-V3レベル),71%(MobileNet-V2レベル)のTop-1精度で6.7ms,5.9ms,3.9msのImageNet推論時間を実現している。
論文 参考訳(メタデータ) (2020-12-01T16:03:40Z) - Subtensor Quantization for Mobilenets [5.735035463793008]
ディープニューラルネットワーク(DNN)の量子化により、開発者はより少ないメモリとより効率的な低消費電力推論でモデルをデプロイできるようになった。
本稿では,量子化損失の根本原因について分析し,チャネル単位やトレーニング対応のアプローチに依存しない代替案を提案する。
我々は、ImageNetデータセット上の画像分類タスクと、浮動小数点バージョンの0.7%以内で、トレーニング後の量子化8ビット推論トップ1の精度を評価する。
論文 参考訳(メタデータ) (2020-11-04T15:41:47Z) - Once Quantization-Aware Training: High Performance Extremely Low-bit
Architecture Search [112.05977301976613]
本稿では,ネットワークアーキテクチャ検索手法と量子化手法を組み合わせることで,両者のメリットを享受することを提案する。
まず、多数の量子化モデルを取得するために、共有ステップサイズでアーキテクチャと量子化の合同トレーニングを提案する。
次に、量子化されたモデルを低ビットに転送するためにビット継承方式を導入し、さらに時間コストを削減し、量子化精度を向上させる。
論文 参考訳(メタデータ) (2020-10-09T03:52:16Z) - Hardware-Centric AutoML for Mixed-Precision Quantization [34.39845532939529]
従来の量子化アルゴリズムは、異なるハードウェアアーキテクチャを無視し、すべてのレイヤを均一に量子化する。
本稿では、強化学習を利用して量子化ポリシーを自動的に決定するハードウェア・アウェア自動量子化(HAQ)フレームワークを紹介する。
本フレームワークは, 固定ビット幅(8ビット)の量子化と比較して, 遅延を1.4-1.95x, エネルギー消費を1.9x削減した。
論文 参考訳(メタデータ) (2020-08-11T17:30:22Z) - Making DensePose fast and light [78.49552144907513]
このタスクを解くことができる既存のニューラルネットワークモデルは、非常にパラメータ化されている。
現在のモデルで端末のDense Pose推論を有効にするには、高価なサーバーサイドのインフラをサポートし、安定したインターネット接続が必要である。
本研究では,DensePose R-CNNモデルのアーキテクチャを再設計することで,最終的なネットワークがその精度の大部分を維持しつつ,より軽量で高速なネットワークを実現することを目的とする。
論文 参考訳(メタデータ) (2020-06-26T19:42:20Z) - PatDNN: Achieving Real-Time DNN Execution on Mobile Devices with
Pattern-based Weight Pruning [57.20262984116752]
粗粒構造の内部に新しい次元、きめ細かなプルーニングパターンを導入し、これまで知られていなかった設計空間の点を明らかにした。
きめ細かいプルーニングパターンによって高い精度が実現されているため、コンパイラを使ってハードウェア効率を向上し、保証することがユニークな洞察である。
論文 参考訳(メタデータ) (2020-01-01T04:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。