論文の概要: Fast and Memory-Efficient Network Towards Efficient Image
Super-Resolution
- arxiv url: http://arxiv.org/abs/2204.08397v1
- Date: Mon, 18 Apr 2022 16:49:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-19 17:49:16.424811
- Title: Fast and Memory-Efficient Network Towards Efficient Image
Super-Resolution
- Title(参考訳): 高速・メモリ効率の高い画像超解像ネットワーク
- Authors: Zongcai Du, Ding Liu, Jie Liu, Jie Tang, Gangshan Wu, Lean Fu
- Abstract要約: 我々は、資源制約のあるデバイスのためのメモリ効率の高い画像超解像ネットワーク(FMEN)を構築した。
FMENは、最先端のEISRモデルであるE-RFDNと比較して33%高速で、メモリ消費を74%削減する。
FMEN-S は NTIRE 2022 の高効率超解像における最小のメモリ消費と2番目に短いランタイムを実現する。
- 参考スコア(独自算出の注目度): 44.909233016062906
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Runtime and memory consumption are two important aspects for efficient image
super-resolution (EISR) models to be deployed on resource-constrained devices.
Recent advances in EISR exploit distillation and aggregation strategies with
plenty of channel split and concatenation operations to make full use of
limited hierarchical features. In contrast, sequential network operations avoid
frequently accessing preceding states and extra nodes, and thus are beneficial
to reducing the memory consumption and runtime overhead. Following this idea,
we design our lightweight network backbone by mainly stacking multiple highly
optimized convolution and activation layers and decreasing the usage of feature
fusion. We propose a novel sequential attention branch, where every pixel is
assigned an important factor according to local and global contexts, to enhance
high-frequency details. In addition, we tailor the residual block for EISR and
propose an enhanced residual block (ERB) to further accelerate the network
inference. Finally, combining all the above techniques, we construct a fast and
memory-efficient network (FMEN) and its small version FMEN-S, which runs 33%
faster and reduces 74% memory consumption compared with the state-of-the-art
EISR model: E-RFDN, the champion in AIM 2020 efficient super-resolution
challenge. Besides, FMEN-S achieves the lowest memory consumption and the
second shortest runtime in NTIRE 2022 challenge on efficient super-resolution.
Code is available at https://github.com/NJU-Jet/FMEN.
- Abstract(参考訳): 実行時とメモリ消費は、リソース制約のあるデバイスにデプロイされる効率的な画像超解像(EISR)モデルにとって重要な2つの側面である。
EISRの最近の進歩は、限られた階層的特徴をフル活用するために、チャネル分割と連結操作を多用した蒸留と集約戦略を利用している。
対照的に、シーケンシャルネットワーク操作は、先行状態や余分なノードに頻繁にアクセスすることを避けるため、メモリ消費とランタイムのオーバーヘッドを減らすのに有用である。
このアイデアに従い、複数の高度に最適化された畳み込み層とアクティベーション層を主に積み重ね、機能融合の利用を減らし、軽量ネットワークバックボーンを設計する。
そこで我々は,各画素に局所的および大域的なコンテキストに応じて重要な要素を割り当て,高頻度な詳細化を図る新しい逐次注意ブランチを提案する。
さらに、EISRの残差ブロックを調整し、ネットワーク推論をさらに高速化するための強化された残差ブロック(ERB)を提案する。
最後に、これらすべての技術を組み合わせて、高速かつメモリ効率のよいネットワーク(FMEN)と、その小型バージョンFMEN-Sを構築し、AIM 2020のチャンピオンであるE-RFDNよりも33%高速に動作し、メモリ消費を74%削減する。
さらに、fmen-sはntire 2022の効率的なスーパーレゾリューションにおける最小のメモリ消費と2番目に短いランタイムを実現している。
コードはhttps://github.com/NJU-Jet/FMEN.comで入手できる。
関連論文リスト
- GRAN: Ghost Residual Attention Network for Single Image Super Resolution [44.4178326950426]
本稿では,Ghost Residual Attention Block (GRAB) グループを導入し,標準的な畳み込み操作の欠点を克服する。
Ghost Moduleは、標準の畳み込みを置き換えるために線形操作を採用することで、本質的な機能の基盤となる情報を明らかにすることができる。
ベンチマークデータセットを用いて行った実験は,定性的・定量的に,本手法の優れた性能を示すものである。
論文 参考訳(メタデータ) (2023-02-28T13:26:24Z) - RDRN: Recursively Defined Residual Network for Image Super-Resolution [58.64907136562178]
深部畳み込みニューラルネットワーク(CNN)は、単一画像超解像において顕著な性能を得た。
本稿では,注目ブロックを効率的に活用する新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-11-17T11:06:29Z) - Efficient Image Super-Resolution using Vast-Receptive-Field Attention [49.87316814164699]
注意機構は、高度な超解像(SR)ネットワークの設計において重要な役割を果たす。
本研究では,アテンション機構の改善により,効率的なSRネットワークを設計する。
VAst-receptive-field Pixel attention networkであるVapSRを提案する。
論文 参考訳(メタデータ) (2022-10-12T07:01:00Z) - Residual Local Feature Network for Efficient Super-Resolution [20.62809970985125]
本研究では,Residual Local Feature Network (RLFN)を提案する。
主なアイデアは、3つの畳み込みレイヤを局所的な特徴学習に使用して、機能の集約を単純化することだ。
さらに,NTIRE 2022の高効率超解像問題において,第1位を獲得した。
論文 参考訳(メタデータ) (2022-05-16T08:46:34Z) - Hybrid Pixel-Unshuffled Network for Lightweight Image Super-Resolution [64.54162195322246]
畳み込みニューラルネットワーク(CNN)は画像超解像(SR)において大きな成功を収めた
ほとんどのディープCNNベースのSRモデルは、高い性能を得るために大量の計算を処理している。
SRタスクに効率的かつ効果的なダウンサンプリングモジュールを導入することで,HPUN(Hybrid Pixel-Unshuffled Network)を提案する。
論文 参考訳(メタデータ) (2022-03-16T20:10:41Z) - Towards Memory-Efficient Neural Networks via Multi-Level in situ
Generation [10.563649948220371]
ディープニューラルネットワーク(DNN)は、様々なタスクにおいて優れたパフォーマンスを示している。
それらが急速に進化するにつれて、そのエスカレーション計算とメモリ要求により、リソースに制約のあるエッジデバイスへのデプロイが困難になる。
超高速なオンチップ計算で高価なメモリトランザクションを交換するための汎用的で統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-25T18:50:24Z) - CondenseNet V2: Sparse Feature Reactivation for Deep Networks [87.38447745642479]
高密度接続によるディープネットワークの機能再利用は、高い計算効率を達成する効果的な方法である。
スパース機能再活性化(SFR)と呼ばれる代替アプローチを提案し、再利用機能の有用性を積極的に高めることを目指しています。
提案手法は画像分類(ImageNet, CIFAR)とオブジェクト検出(MSCOCO)において,理論的効率と実用的速度の両面で有望な性能を達成できることを示す。
論文 参考訳(メタデータ) (2021-04-09T14:12:43Z) - Hierarchical Residual Attention Network for Single Image
Super-Resolution [2.0571256241341924]
本稿では,残差特徴と注意集約の効率的な手法に基づく新しい軽量超解像モデルを提案する。
提案アーキテクチャは,比較的少ない計算量とメモリフットプリントを維持しながら,いくつかのデータセットにおける最先端性能を上回る。
論文 参考訳(メタデータ) (2020-12-08T17:24:28Z) - Lightweight Single-Image Super-Resolution Network with Attentive
Auxiliary Feature Learning [73.75457731689858]
本稿では,SISR の注意補助機能 (A$2$F) に基づく計算効率が高く正確なネットワークを構築した。
大規模データセットを用いた実験結果から,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-11-13T06:01:46Z) - Improving Memory Utilization in Convolutional Neural Network
Accelerators [16.340620299847384]
本稿では,アクティベーション層を重複させ,メモリをより効率的に利用するためのマッピング手法を提案する。
様々な実世界のオブジェクト検出器ネットワークによる実験により、提案されたマッピング技術により、メモリのアクティベーションを最大32.9%削減できることが示された。
より高解像度のノイズ除去ネットワークでは、活性化メモリの48.8%の節約を実現している。
論文 参考訳(メタデータ) (2020-07-20T09:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。