論文の概要: Fast Nearest Convolution for Real-Time Efficient Image Super-Resolution
- arxiv url: http://arxiv.org/abs/2208.11609v1
- Date: Wed, 24 Aug 2022 15:23:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-25 13:16:08.311119
- Title: Fast Nearest Convolution for Real-Time Efficient Image Super-Resolution
- Title(参考訳): リアルタイム画像超解像のための高速近距離変換
- Authors: Ziwei Luo, Youwei Li, Lei Yu, Qi Wu, Zhihong Wen, Haoqiang Fan,
Shuaicheng Liu
- Abstract要約: 我々は,NPUに親しみやすい高速最寄りの畳み込みモジュール(NCNet)を備えた単純な平らな畳み込みネットワークを提案し,リアルタイムに信頼性の高い超解像を実現する。
我々のモデルは8ビット量子化で簡単にモバイルデバイスにデプロイでき、すべての主要なモバイルAIアクセラレータと完全に互換性がある。
我々のNCNetは、DIV2K 3xデータセットを用いて訓練し、検証し、他の効率的なSR手法との比較により、NCNetは推論時間が少なくて高い忠実性SR結果が得られることを示した。
- 参考スコア(独自算出の注目度): 36.72750683939934
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning-based single image super-resolution (SISR) approaches have
drawn much attention and achieved remarkable success on modern advanced GPUs.
However, most state-of-the-art methods require a huge number of parameters,
memories, and computational resources, which usually show inferior inference
times when applying them to current mobile device CPUs/NPUs. In this paper, we
propose a simple plain convolution network with a fast nearest convolution
module (NCNet), which is NPU-friendly and can perform a reliable
super-resolution in real-time. The proposed nearest convolution has the same
performance as the nearest upsampling but is much faster and more suitable for
Android NNAPI. Our model can be easily deployed on mobile devices with 8-bit
quantization and is fully compatible with all major mobile AI accelerators.
Moreover, we conduct comprehensive experiments on different tensor operations
on a mobile device to illustrate the efficiency of our network architecture.
Our NCNet is trained and validated on the DIV2K 3x dataset, and the comparison
with other efficient SR methods demonstrated that the NCNet can achieve high
fidelity SR results while using fewer inference times. Our codes and pretrained
models are publicly available at \url{https://github.com/Algolzw/NCNet}.
- Abstract(参考訳): ディープラーニングベースのシングルイメージ超解像(SISR)アプローチは、多くの注目を集め、現代の高度なGPUで大きな成功を収めている。
しかし、ほとんどの最先端の手法は膨大な数のパラメータ、メモリ、計算資源を必要とするため、現在のモバイルデバイスのCPU/NPUに適用する場合、推論時間が劣る。
本稿では,NPUに親しみやすい高速最寄りの畳み込みモジュール(NCNet)を用いた単純な平板畳み込みネットワークを提案する。
提案された最も近い畳み込みは、最も近いアップサンプリングと同じパフォーマンスであるが、より高速で、Android NNAPIに適している。
我々のモデルは8ビット量子化で簡単にモバイルデバイスにデプロイでき、すべての主要なモバイルAIアクセラレータと完全に互換性がある。
さらに,モバイル機器上での異なるテンソル操作に関する包括的な実験を行い,ネットワークアーキテクチャの効率性を示す。
我々のNCNetは、DIV2K 3xデータセットを用いて訓練し、検証し、他の効率的なSR手法との比較により、NCNetは推論時間が少なくて高い忠実性SR結果が得られることを示した。
私たちのコードと事前訓練済みモデルは、 \url{https://github.com/Algolzw/NCNet}で公開されています。
関連論文リスト
- Weight Block Sparsity: Training, Compilation, and AI Engine Accelerators [0.0]
Deep Neural Networks(DNN)が開発、トレーニング、利用され、高度なデバイスと限られたデバイスの両方に負担がかかっている。
私たちのソリューションは、ハードウェアに親しみやすい構造化された空間であるエムの重みブロック間隔を実装することです。
本稿では,Resnet50,Inception V3,VGG16を用いて,AIE2構成セット(AMD Versal FPGA)の正確かつ完全なコード生成による性能評価を行う。
論文 参考訳(メタデータ) (2024-07-12T17:37:49Z) - Hybrid Pixel-Unshuffled Network for Lightweight Image Super-Resolution [64.54162195322246]
畳み込みニューラルネットワーク(CNN)は画像超解像(SR)において大きな成功を収めた
ほとんどのディープCNNベースのSRモデルは、高い性能を得るために大量の計算を処理している。
SRタスクに効率的かつ効果的なダウンサンプリングモジュールを導入することで,HPUN(Hybrid Pixel-Unshuffled Network)を提案する。
論文 参考訳(メタデータ) (2022-03-16T20:10:41Z) - SwiftSRGAN -- Rethinking Super-Resolution for Efficient and Real-time
Inference [0.0]
本稿では,メモリフットプリントの高速化と小型化を実現したアーキテクチャを提案する。
リアルタイムの超解像度により、帯域幅の低い条件下でも高解像度のメディアコンテンツをストリーミングできる。
論文 参考訳(メタデータ) (2021-11-29T04:20:15Z) - GhostSR: Learning Ghost Features for Efficient Image Super-Resolution [49.393251361038025]
畳み込みニューラルネットワーク(CNN)に基づく単一の画像スーパーリゾリューション(SISR)システムは、膨大な計算コストを必要としながら派手なパフォーマンスを実現します。
SISRモデルの冗長な特徴(すなわちゴースト特徴)を生成するためにシフト演算を用いることを提案する。
提案モジュールに埋め込まれた非コンパクトかつ軽量なSISRモデルの両方が,ベースラインと同等の性能を発揮することを示す。
論文 参考訳(メタデータ) (2021-01-21T10:09:47Z) - FastSal: a Computationally Efficient Network for Visual Saliency
Prediction [7.742198347952173]
我々は、MobileNetV2が視覚的サリエンシモデルに優れたバックボーンを作り、複雑なデコーダを使わずに有効であることを示す。
また,DeepGaze IIのような計算コストの高いモデルからの知識伝達は,ラベルのないデータセットを擬似ラベリングすることで実現できることを示す。
論文 参考訳(メタデータ) (2020-08-25T16:32:33Z) - RT3D: Achieving Real-Time Execution of 3D Convolutional Neural Networks
on Mobile Devices [57.877112704841366]
本稿では3次元CNNのためのモデル圧縮およびモバイルアクセラレーションフレームワークRT3Dを提案する。
3D CNNのリアルタイム実行は、市販のモバイル上で初めて実現された。
論文 参考訳(メタデータ) (2020-07-20T02:05:32Z) - Efficient Integer-Arithmetic-Only Convolutional Neural Networks [87.01739569518513]
我々は従来のReLUを境界ReLUに置き換え、その減少は活性化量子化によるものであることを示す。
我々の整数ネットワークは、対応するFPNネットワークと同等の性能を発揮するが、メモリコストは1/4に過ぎず、最新のGPUでは2倍高速である。
論文 参考訳(メタデータ) (2020-06-21T08:23:03Z) - Einsum Networks: Fast and Scalable Learning of Tractable Probabilistic
Circuits [99.59941892183454]
我々は,PC用の新しい実装設計であるEinsum Networks (EiNets)を提案する。
中心となるのは、E EiNets は単一のモノリシックな einsum-operation に多数の算術演算を組み合わせている。
本稿では,PCにおける予測最大化(EM)の実装を,自動微分を利用した簡易化が可能であることを示す。
論文 参考訳(メタデータ) (2020-04-13T23:09:15Z) - FarSee-Net: Real-Time Semantic Segmentation by Efficient Multi-scale
Context Aggregation and Feature Space Super-resolution [14.226301825772174]
Cascaded Factorized Atrous Space Pyramid Pooling (CF-ASPP) と呼ばれる新しい効率的なモジュールについて紹介する。
これは畳み込みニューラルネットワーク(CNN)のための軽量なカスケード構造であり、コンテキスト情報を効率的に活用する。
我々は1枚のNivida Titan X (Maxwell) GPUカードでCityscapesテストセットの84fpsで68.4% mIoUを達成した。
論文 参考訳(メタデータ) (2020-03-09T03:53:57Z) - Performance Aware Convolutional Neural Network Channel Pruning for
Embedded GPUs [6.035819238203187]
コンボリューションチャネルの数を減少させ,初期サイズの12%を刈り取ることで,性能を損なう場合がある。
また,cuDNNで3倍,Arm Compute LibraryとTVMで10倍以上の性能向上を実現した。
論文 参考訳(メタデータ) (2020-02-20T12:07:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。