論文の概要: Reconstructed Convolution Module Based Look-Up Tables for Efficient
Image Super-Resolution
- arxiv url: http://arxiv.org/abs/2307.08544v1
- Date: Mon, 17 Jul 2023 15:04:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 12:47:19.389754
- Title: Reconstructed Convolution Module Based Look-Up Tables for Efficient
Image Super-Resolution
- Title(参考訳): 画像超解像のための再構成畳み込みモジュールによるルックアップテーブル
- Authors: Guandu Liu, Yukang Ding, Mading Li, Ming Sun, Xing Wen and Bin Wang
- Abstract要約: ルックアップテーブル(LUT)に基づく手法は、単一画像超解像(SR)タスクにおいて大きな効果を示した。
従来の方法は、LUTにおける制限受容野(RF)サイズの本質的な理由を無視している。
本稿では,チャネルワイドと空間計算を分離した新しい再構成畳み込みモジュールを提案する。
- 参考スコア(独自算出の注目度): 9.715421499605934
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Look-up table(LUT)-based methods have shown the great efficacy in single
image super-resolution (SR) task. However, previous methods ignore the
essential reason of restricted receptive field (RF) size in LUT, which is
caused by the interaction of space and channel features in vanilla convolution.
They can only increase the RF at the cost of linearly increasing LUT size. To
enlarge RF with contained LUT sizes, we propose a novel Reconstructed
Convolution(RC) module, which decouples channel-wise and spatial calculation.
It can be formulated as $n^2$ 1D LUTs to maintain $n\times n$ receptive field,
which is obviously smaller than $n\times n$D LUT formulated before. The LUT
generated by our RC module reaches less than 1/10000 storage compared with
SR-LUT baseline. The proposed Reconstructed Convolution module based LUT
method, termed as RCLUT, can enlarge the RF size by 9 times than the
state-of-the-art LUT-based SR method and achieve superior performance on five
popular benchmark dataset. Moreover, the efficient and robust RC module can be
used as a plugin to improve other LUT-based SR methods. The code is available
at https://github.com/liuguandu/RC-LUT.
- Abstract(参考訳): ルックアップテーブル(LUT)に基づく手法は、単一画像超解像(SR)タスクにおいて大きな効果を示した。
しかし、従来の手法では、バニラ畳み込みにおける空間的特徴とチャネル的特徴の相互作用に起因するLUTにおける制限受容野(RF)サイズの本質的な理由を無視していた。
RFはLUTサイズを直線的に増加させるコストでしか増加できない。
RFをLUTサイズで拡大するために、チャネルワイドと空間計算を分離する新しい再構成畳み込み(RC)モジュールを提案する。
これは$n^2$ 1D LUTsとして定式化して$n\times n$ receptive fieldを維持できるが、これは明らかに以前に定式化された$n\times n$D LUTより小さい。
RCモジュールが生成したLUTは,SR-LUTベースラインに比べて1/10000ストレージ以下である。
RCLUTと呼ばれるReconstructed Convolutionモジュールに基づくLUT法は、最先端のLUTベースのSR法よりもRFサイズを9倍に拡大し、5つの人気のあるベンチマークデータセットで優れた性能を実現する。
さらに、効率的で堅牢なRCモジュールは、他のLUTベースのSRメソッドを改善するプラグインとして使用できる。
コードはhttps://github.com/liuguandu/rc-lutで入手できる。
関連論文リスト
- PolyLUT-Add: FPGA-based LUT Inference with Wide Inputs [1.730979251211628]
この研究はPolyLUT-Addを導入し、これは精度を向上させるために$A$ PolyLUTサブニューロンを組み合わせることによってニューロンの接続性を高める技術である。
我々は,MNIST,Jet Substructure Classification,Network Intrusion Detectionベンチマークに対する実装評価を行い,同様の精度でPolyLUT-AddがLUTの2.0-13.9times$と1.2-1.6times$の遅延低減を実現していることを確認した。
論文 参考訳(メタデータ) (2024-06-07T13:00:57Z) - NAFRSSR: a Lightweight Recursive Network for Efficient Stereo Image Super-Resolution [17.025789865392444]
ステレオ・イメージ・スーパーレゾリューション(Stereo image Super- resolution, SR)とは、高解像度(HR)画像の2枚の低解像度(LR)画像からの再構成である。
そこで本研究では,NAFRSSRと呼ばれる単純なステレオ画像SRモデルを提案する。
我々のモデルは非線形アクティベーションフリーとグループ畳み込みベースブロック(NAFGCBlocks)と深度分離ステレオクロスアテンションモジュール(DSSCAMs)で構成されている。
論文 参考訳(メタデータ) (2024-05-14T08:33:40Z) - HiRE: High Recall Approximate Top-$k$ Estimation for Efficient LLM
Inference [68.59839755875252]
HiREは2つの新しいコンポーネントから構成される: (i) (i) (i) (i) (i) (i) (i) (i) (i) (i) (ii) DA-TOP-$k$: 効率的なマルチデバイス近似トップ-k$演算子) (i) (i) (i) (i) (i) (i) (i) DA-TOP-$k$演算子) 。
我々は、10億のパラメータモデルにおいて、HiREがソフトマックスとフィードフォワード層の両方に適用され、ほぼ一致した事前学習と下流の精度を実現し、1台のTPUv5eデバイスで1.47Times$の推論遅延を高速化することを示した。
論文 参考訳(メタデータ) (2024-02-14T18:04:36Z) - Transforming Image Super-Resolution: A ConvFormer-based Efficient Approach [58.57026686186709]
本稿では, Convolutional Transformer Layer (ConvFormer) を導入し, ConvFormer-based Super-Resolution Network (CFSR) を提案する。
CFSRは畳み込みベースのアプローチとトランスフォーマーベースのアプローチの両方の利点を継承する。
CFSRは計算コストと性能のバランスが最適であることを示す実験である。
論文 参考訳(メタデータ) (2024-01-11T03:08:00Z) - Hundred-Kilobyte Lookup Tables for Efficient Single-Image Super-Resolution [7.403264755337134]
超解像(SR)方式は畳み込みニューラルネットワーク(CNN)を多用しており、これは集中的乗算(MAC)演算を含む。
これは、電力、コンピューティング、ストレージリソースによって歪んだデバイス上で実行されるエッジAIの体制と矛盾する。
この作業は、このストレージハードルに対処し、100キロバイトのLUT(HKLUT)モデルをオンチップキャッシュ用に革新する。
論文 参考訳(メタデータ) (2023-12-11T04:07:34Z) - Instant Complexity Reduction in CNNs using Locality-Sensitive Hashing [50.79602839359522]
本稿では,パラメータフリーでデータフリーなモジュールであるHASTE(Hashing for Tractable Efficiency)を提案する。
局所性感応ハッシュ (LSH) を用いることで, 精度を犠牲にすることなく, 遅延特徴写像を劇的に圧縮することができる。
特に、HASTEモジュール用のCIFAR-10上のResNet34で畳み込みモジュールを切り替えるだけで、FLOPの46.72%を即座に落とすことができる。
論文 参考訳(メタデータ) (2023-09-29T13:09:40Z) - Toward DNN of LUTs: Learning Efficient Image Restoration with Multiple
Look-Up Tables [47.15181829317732]
エッジデバイス上の高解像度スクリーンは、効率的な画像復元アルゴリズムに対する強い需要を刺激する。
単一のルックアップテーブルのサイズはインデックス化能力の増加とともに指数関数的に増加する。
本稿では,Mulutと呼ばれるニューラルネットワークのような複数のLUTを構築するための普遍的手法を提案する。
論文 参考訳(メタデータ) (2023-03-25T16:00:33Z) - Spatially-Adaptive Feature Modulation for Efficient Image
Super-Resolution [90.16462805389943]
視覚変換器(ViT)のようなブロック上に,空間適応型特徴変調(SAFM)機構を開発する。
提案法は最先端のSR法よりも3倍程度小さい。
論文 参考訳(メタデータ) (2023-02-27T14:19:31Z) - Lightweight Single-Image Super-Resolution Network with Attentive
Auxiliary Feature Learning [73.75457731689858]
本稿では,SISR の注意補助機能 (A$2$F) に基づく計算効率が高く正確なネットワークを構築した。
大規模データセットを用いた実験結果から,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-11-13T06:01:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。