論文の概要: Subtractor-Based CNN Inference Accelerator
- arxiv url: http://arxiv.org/abs/2310.01022v1
- Date: Mon, 2 Oct 2023 09:15:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-04 22:42:44.493959
- Title: Subtractor-Based CNN Inference Accelerator
- Title(参考訳): サブトラクタベースCNN推論加速器
- Authors: Victor Gao, Issam Hammad, Kamal El-Sankary, and Jason Gu
- Abstract要約: 本稿では,サブトラクタを用いたCNN推論アクセラレータの性能向上手法を提案する。
ラウンドサイズ0.05で、32.03%の省電力化と24.59%の面積削減を実現でき、精度損失はわずか0.1%である。
- 参考スコア(独自算出の注目度): 3.663763133721262
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper presents a novel method to boost the performance of CNN inference
accelerators by utilizing subtractors. The proposed CNN preprocessing
accelerator relies on sorting, grouping, and rounding the weights to create
combinations that allow for the replacement of one multiplication operation and
addition operation by a single subtraction operation when applying convolution
during inference. Given the high cost of multiplication in terms of power and
area, replacing it with subtraction allows for a performance boost by reducing
power and area. The proposed method allows for controlling the trade-off
between performance gains and accuracy loss through increasing or decreasing
the usage of subtractors. With a rounding size of 0.05 and by utilizing LeNet-5
with the MNIST dataset, the proposed design can achieve 32.03% power savings
and a 24.59% reduction in area at the cost of only 0.1% in terms of accuracy
loss.
- Abstract(参考訳): 本稿では,減算器を用いたcnn推論用加速器の性能向上手法を提案する。
提案するcnnプリプロセッシングアクセラレータは、推論中に畳み込みを適用する際に1つの乗算演算と加算演算を1つの減算演算で置き換えることができる組合せを作成するために、重み付けのソート、グループ化、丸み付けに依存する。
電力と面積の面での乗算コストが高いため、乗算を減算に置き換えることで、電力と面積を削減して性能を向上できる。
提案手法は,減算器の使用量を増加させたり減らしたりすることで,性能向上と精度損失のトレードオフを制御できる。
ラウンドサイズ0.05で、MNISTデータセットでLeNet-5を利用することで、32.03%の省電力化と24.59%の面積削減を実現し、精度損失はわずか0.1%である。
関連論文リスト
- ReduceFormer: Attention with Tensor Reduction by Summation [4.985969607297595]
注意を払って効率よく最適化されたモデルのファミリーであるReduceeFormerを紹介します。
ReduceFormerは、reduceやement-wise multiplicationといった単純な操作のみを活用するため、アーキテクチャが大幅に単純化され、推論性能が向上した。
提案するモデルファミリは,計算資源とメモリ帯域幅が限られているエッジデバイスや,高いスループットを求めるクラウドコンピューティングに適している。
論文 参考訳(メタデータ) (2024-06-11T17:28:09Z) - LATTE: Low-Precision Approximate Attention with Head-wise Trainable Threshold for Efficient Transformer [0.0]
我々は,高効率変圧器(LATTE)のための頭部訓練用閾値を用いた高精度近似注意法を提案する。
LATTEは、MHA(Multi-Head Attention)の計算量を削減するために、低精度ドット積を持つ頭部しきい値に基づくフィルタを用いる。
実験の結果, LATTE は NLP と CV の両方のタスクにスムーズに適応でき, 計算コストを大幅に削減できることがわかった。
論文 参考訳(メタデータ) (2024-04-11T07:23:19Z) - Point Transformer V3: Simpler, Faster, Stronger [88.80496333515325]
本稿では,ポイントクラウド処理における精度と効率のトレードオフを克服することに焦点を当てる。
本稿では,特定のメカニズムの精度よりもシンプルさと効率を優先するポイントトランスフォーマーV3(PTv3)を提案する。
PTv3は、屋内と屋外の両方のシナリオにまたがる20以上の下流タスクで最先端の結果を得る。
論文 参考訳(メタデータ) (2023-12-15T18:59:59Z) - Instant Complexity Reduction in CNNs using Locality-Sensitive Hashing [50.79602839359522]
本稿では,パラメータフリーでデータフリーなモジュールであるHASTE(Hashing for Tractable Efficiency)を提案する。
局所性感応ハッシュ (LSH) を用いることで, 精度を犠牲にすることなく, 遅延特徴写像を劇的に圧縮することができる。
特に、HASTEモジュール用のCIFAR-10上のResNet34で畳み込みモジュールを切り替えるだけで、FLOPの46.72%を即座に落とすことができる。
論文 参考訳(メタデータ) (2023-09-29T13:09:40Z) - Attention-based Feature Compression for CNN Inference Offloading in Edge
Computing [93.67044879636093]
本稿では,デバイスエッジ共振器におけるCNN推論の計算負荷について検討する。
エンドデバイスにおける効率的な特徴抽出のための新しいオートエンコーダベースのCNNアーキテクチャ(AECNN)を提案する。
実験の結果、AECNNは中間データを約4%の精度で256倍圧縮できることがわかった。
論文 参考訳(メタデータ) (2022-11-24T18:10:01Z) - Fast Exploration of the Impact of Precision Reduction on Spiking Neural
Networks [63.614519238823206]
ターゲットハードウェアがコンピューティングの端に達すると、スパイキングニューラルネットワーク(SNN)が実用的な選択となる。
我々は、近似誤差を伝播するそのようなモデルの能力を生かした探索手法を開発するために、インターヴァル算術(IA)モデルを用いる。
論文 参考訳(メタデータ) (2022-11-22T15:08:05Z) - Compression-aware Projection with Greedy Dimension Reduction for
Convolutional Neural Network Activations [3.6188659868203388]
分類精度と圧縮比のトレードオフを改善するための圧縮対応投影システムを提案する。
提案手法は,MobileNetV2/ResNet18/VGG16の精度低下により2.91x5.97xのメモリアクセスを効果的に削減できることを示す。
論文 参考訳(メタデータ) (2021-10-17T14:02:02Z) - MicroNet: Improving Image Recognition with Extremely Low FLOPs [82.54764264255505]
疎結合性と動的アクティベーション関数の2つの要因が,精度向上に有効であることがわかった。
非線形性を改善するために動的シフトマックスと呼ばれる新しい動的アクティベーション関数を提案する。
私たちはMicroNetというネットワークのファミリに到達し、低FLOP体制下での最先端技術に対して大きなパフォーマンス向上を実現しています。
論文 参考訳(メタデータ) (2021-08-12T17:59:41Z) - Control Variate Approximation for DNN Accelerators [3.1921317895626493]
低誤差近似Deep Neural Network (DNN)アクセラレータの制御変位近似技術について紹介する。
提案手法は,時間的再学習を必要とせず,推論における近似的乗算による帰納誤差を著しく低減する。
論文 参考訳(メタデータ) (2021-02-18T22:11:58Z) - Inception Convolution with Efficient Dilation Search [121.41030859447487]
拡散畳み込みは、効果的な受容場を制御し、オブジェクトの大規模な分散を処理するための標準的な畳み込みニューラルネットワークの重要な変異体である。
そこで我々は,異なる軸,チャネル,層間の独立な拡散を有する拡張畳み込みの新たな変異体,すなわち開始(拡張)畳み込みを提案する。
本稿では,データに複雑なインセプション・コンボリューションを適合させる実用的な手法を探索し,統計的最適化に基づく簡易かつ効果的な拡張探索アルゴリズム(EDO)を開発した。
論文 参考訳(メタデータ) (2020-12-25T14:58:35Z) - Explicitly Trained Spiking Sparsity in Spiking Neural Networks with
Backpropagation [7.952659059689134]
スパイキングニューラルネットワーク(SNN)は、スパースでイベント駆動の計算によって生じる潜在的なエネルギー効率について検討されている。
本稿では,損失関数のスパイク数と従来の誤差損失とを明示的に含み,精度とスパイク間隔の両方の重みパラメータを最適化する手法を提案する。
論文 参考訳(メタデータ) (2020-03-02T23:39:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。