論文の概要: Hundred-Kilobyte Lookup Tables for Efficient Single-Image
Super-Resolution
- arxiv url: http://arxiv.org/abs/2312.06101v1
- Date: Mon, 11 Dec 2023 04:07:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 17:05:24.781589
- Title: Hundred-Kilobyte Lookup Tables for Efficient Single-Image
Super-Resolution
- Title(参考訳): 効率的な単一画像超解像のための数百キロバイトルックアップテーブル
- Authors: Binxiao Huang, Jason Chun Lok Li, Jie Ran, Boyu Li, Jiajun Zhou, Dahai
Yu, Ngai Wong
- Abstract要約: 超解像(SR)方式は畳み込みニューラルネットワーク(CNN)を多用する
これは、電力、コンピューティング、ストレージリソースによって歪んだデバイス上で実行されるエッジAIの体制と矛盾する。
この作業は、このストレージハードルに対処し、100キロバイトのLUT(HKLUT)モデルをオンチップキャッシュ用に革新する。
- 参考スコア(独自算出の注目度): 7.774506801623125
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conventional super-resolution (SR) schemes make heavy use of convolutional
neural networks (CNNs), which involve intensive multiply-accumulate (MAC)
operations, and require specialized hardware such as graphics processing units.
This contradicts the regime of edge AI that often runs on devices strained by
power, computing, and storage resources. Such a challenge has motivated a
series of lookup table (LUT)-based SR schemes that employ simple LUT readout
and largely elude CNN computation. Nonetheless, the multi-megabyte LUTs in
existing methods still prohibit on-chip storage and necessitate off-chip memory
transport. This work tackles this storage hurdle and innovates hundred-kilobyte
LUT (HKLUT) models amenable to on-chip cache. Utilizing an asymmetric
two-branch multistage network coupled with a suite of specialized kernel
patterns, HKLUT demonstrates an uncompromising performance and superior
hardware efficiency over existing LUT schemes.
- Abstract(参考訳): 従来のスーパーレゾリューション(sr)方式は畳み込みニューラルネットワーク(cnns)を多用しており、これは集中的マルチプライアキューム(mac)操作を伴い、グラフィック処理ユニットのような特殊なハードウェアを必要とする。
これは、電力、コンピューティング、ストレージリソースによって歪んだデバイス上で実行されるエッジAIの体制と矛盾する。
このような課題は、単純なLUT読み出しとCNN計算を多用した一連のルックアップテーブル(LUT)ベースのSRスキームを動機付けている。
それでも、既存のメソッドのマルチメガバイトのUTTは、オンチップストレージを禁止し、オフチップメモリ転送を必要としている。
この作業は、このストレージハードルに対処し、オンチップキャッシュに対応可能な100kbit LUT(HKLUT)モデルを革新する。
HKLUTは、非対称な2分岐マルチステージネットワークと特別なカーネルパターンの組み合わせを利用して、既存のLUT方式よりも非競合性能とハードウェア効率が優れていることを示した。
関連論文リスト
- Taming Lookup Tables for Efficient Image Retouching [30.48643578900116]
我々は、畳み込みニューラルネットワーク(CNN)を使わずに、極めて効率的なエッジ推論にLUTを採用するICELUTを提案する。
ICELUTは最先端の性能と極めて低消費電力を実現している。
これにより、最初のLUTベースのイメージエンハンサーであるICELUTは、GPUでは0.4ms、CPUでは7msという前例のない速度に達し、CNNソリューションよりも少なくとも1桁高速になる。
論文 参考訳(メタデータ) (2024-03-28T08:49:35Z) - DeepGEMM: Accelerated Ultra Low-Precision Inference on CPU Architectures
using Lookup Tables [49.965024476651706]
DeepGEMMはSIMDハードウェア上で超高精度畳み込みニューラルネットワークを実行するためのルックアップテーブルベースのアプローチである。
実装は、x86プラットフォーム上で、対応する8ビット整数カーネルを最大1.74倍の性能で上回る。
論文 参考訳(メタデータ) (2023-04-18T15:13:10Z) - Toward DNN of LUTs: Learning Efficient Image Restoration with Multiple
Look-Up Tables [47.15181829317732]
エッジデバイス上の高解像度スクリーンは、効率的な画像復元アルゴリズムに対する強い需要を刺激する。
単一のルックアップテーブルのサイズはインデックス化能力の増加とともに指数関数的に増加する。
本稿では,Mulutと呼ばれるニューラルネットワークのような複数のLUTを構築するための普遍的手法を提案する。
論文 参考訳(メタデータ) (2023-03-25T16:00:33Z) - Spatially-Adaptive Feature Modulation for Efficient Image
Super-Resolution [90.16462805389943]
視覚変換器(ViT)のようなブロック上に,空間適応型特徴変調(SAFM)機構を開発する。
提案法は最先端のSR法よりも3倍程度小さい。
論文 参考訳(メタデータ) (2023-02-27T14:19:31Z) - Exploiting Kernel Compression on BNNs [0.0]
本研究では,一組の重みを表す一意列の数が典型的に低いことを観察する。
本稿では、最も一般的なビット列を識別し、あまり一般的でないビット列を類似の共通配列に置き換えるクラスタリング手法を提案する。
実験結果から,本手法はメモリ要求量を1.32倍に削減し,性能を1.35倍に向上させることができることがわかった。
論文 参考訳(メタデータ) (2022-12-01T16:05:10Z) - Instant Neural Graphics Primitives with a Multiresolution Hash Encoding [67.33850633281803]
品質を犠牲にすることなく、より小さなネットワークを使用できる汎用的な新しい入力符号化を提案する。
小さなニューラルネットワークは、勾配降下によって値が最適化された訓練可能な特徴ベクトルの多分解能ハッシュテーブルによって拡張される。
数桁の高速化を実現し、高品質なニューラルネットワークプリミティブを数秒でトレーニングすることができる。
論文 参考訳(メタデータ) (2022-01-16T07:22:47Z) - CREW: Computation Reuse and Efficient Weight Storage for
Hardware-accelerated MLPs and RNNs [1.0635248457021496]
本稿では,ReuseとEfficient Weight Storage機構を実装したハードウェアアクセラレータCREWを紹介する。
CREWは乗算数を大幅に削減し、モデルメモリフットプリントとメモリ帯域幅使用量を大幅に削減する。
CREWは平均2.61倍のスピードアップと2.42倍の省エネを提供する。
論文 参考訳(メタデータ) (2021-07-20T11:10:54Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - VersaGNN: a Versatile accelerator for Graph neural networks [81.1667080640009]
我々は,超効率的なサイストリックアレイベースの多用途ハードウェアアクセラレータである textitVersaGNN を提案する。
textitVersaGNNは平均3712$times$ speedup with 1301.25$times$ energy reduction on CPU、35.4$times$ speedup with 17.66$times$ energy reduction on GPUを達成している。
論文 参考訳(メタデータ) (2021-05-04T04:10:48Z) - PoET-BiN: Power Efficient Tiny Binary Neurons [1.7274221736253095]
本稿では,リソース制約の組込みデバイス上でのルックアップテーブルに基づく効率的な実装であるPoET-BiNを提案する。
修正された決定木アプローチは、バイナリドメインで提案された実装のバックボーンを形成する。
LUTアクセスは、それを置き換えるMultiply Accumulate操作よりもはるかに少ない電力を消費し、修正されたDecision Treeアルゴリズムはメモリアクセスの必要性を排除する。
論文 参考訳(メタデータ) (2020-02-23T00:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。