論文の概要: Deep Neural Networks Based Weight Approximation and Computation Reuse
for 2-D Image Classification
- arxiv url: http://arxiv.org/abs/2105.02954v1
- Date: Wed, 28 Apr 2021 10:16:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 08:36:35.167081
- Title: Deep Neural Networks Based Weight Approximation and Computation Reuse
for 2-D Image Classification
- Title(参考訳): 2次元画像分類のための重み近似と計算再利用に基づく深層ニューラルネットワーク
- Authors: Mohammed F. Tolba, Huruy Tekle Tesfai, Hani Saleh, Baker Mohammad, and
Mahmoud Al-Qutayri
- Abstract要約: ディープニューラルネットワーク(DNN)は計算とメモリ集約である。
本稿では,近似計算とデータ再利用手法を融合させ,DNNs性能を改善する新しい手法を提案する。
IoTエッジデバイスに適しており、メモリサイズ要件と必要なメモリアクセス数を削減します。
- 参考スコア(独自算出の注目度): 0.9507070656654631
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNNs) are computationally and memory intensive, which
makes their hardware implementation a challenging task especially for resource
constrained devices such as IoT nodes. To address this challenge, this paper
introduces a new method to improve DNNs performance by fusing approximate
computing with data reuse techniques to be used for image recognition
applications. DNNs weights are approximated based on the linear and quadratic
approximation methods during the training phase, then, all of the weights are
replaced with the linear/quadratic coefficients to execute the inference in a
way where different weights could be computed using the same coefficients. This
leads to a repetition of the weights across the processing element (PE) array,
which in turn enables the reuse of the DNN sub-computations (computational
reuse) and leverage the same data (data reuse) to reduce DNNs computations,
memory accesses, and improve energy efficiency albeit at the cost of increased
training time. Complete analysis for both MNIST and CIFAR 10 datasets is
presented for image recognition , where LeNet 5 revealed a reduction in the
number of parameters by a factor of 1211.3x with a drop of less than 0.9% in
accuracy. When compared to the state of the art Row Stationary (RS) method, the
proposed architecture saved 54% of the total number of adders and multipliers
needed. Overall, the proposed approach is suitable for IoT edge devices as it
reduces the memory size requirement as well as the number of needed memory
accesses.
- Abstract(参考訳): Deep Neural Networks(DNN)は計算量とメモリ集約性があるため、IoTノードなどのリソース制約のあるデバイスにおいて、ハードウェア実装が特に課題となる。
本稿では,画像認識に使用するデータ再利用技術を用いて近似計算を行うことにより,dnnsの性能を向上させる新しい手法を提案する。
DNNの重みは、トレーニング期間中の線形および二次近似法に基づいて近似され、全ての重みを線形/二次係数に置き換えて、同じ係数を用いて異なる重みを計算できる方法で推論を行う。
これにより、処理要素(PE)アレイ間の重みの繰り返しが発生し、それによってDNNサブ計算(計算再利用)の再利用が可能になり、同じデータ(データ再利用)を活用してDNNの計算、メモリアクセスを削減し、トレーニング時間の増加を犠牲にしてエネルギー効率を向上させる。
MNISTとCIFAR 10のデータセットの完全な解析結果が画像認識のために提示され、LeNet 5はパラメータ数を1211.3倍に削減し、精度は0.9%未満であった。
art row stationary(rs)メソッドの状態と比較すると、提案されたアーキテクチャは必要な加算器と乗算器の総数の54%を節約した。
全体として、提案されたアプローチは、必要なメモリアクセス数だけでなく、メモリサイズ要件の削減によるIoTエッジデバイスに適している。
関連論文リスト
- Deep Multi-Threshold Spiking-UNet for Image Processing [51.88730892920031]
本稿では,SNN(Spike Neural Networks)とU-Netアーキテクチャを組み合わせた,画像処理のためのスパイキング-UNetの概念を紹介する。
効率的なスパイキング-UNetを実現するためには,スパイクによる高忠実度情報伝播の確保と,効果的なトレーニング戦略の策定という2つの課題に直面する。
実験の結果,画像のセグメンテーションとデノイングにおいて,スパイキングUNetは非スパイキングと同等の性能を発揮することがわかった。
論文 参考訳(メタデータ) (2023-07-20T16:00:19Z) - Efficient Dataset Distillation Using Random Feature Approximation [109.07737733329019]
本稿では,ニューラルネットワークガウス過程(NNGP)カーネルのランダム特徴近似(RFA)を用いた新しいアルゴリズムを提案する。
我々のアルゴリズムは、KIP上で少なくとも100倍のスピードアップを提供し、1つのGPUで実行できる。
RFA蒸留 (RFAD) と呼ばれる本手法は, 大規模データセットの精度において, KIP や他のデータセット凝縮アルゴリズムと競合して動作する。
論文 参考訳(メタデータ) (2022-10-21T15:56:13Z) - A Low-Complexity Approach to Rate-Distortion Optimized Variable Bit-Rate
Compression for Split DNN Computing [5.3221129103999125]
分散コンピューティングは、DNNベースのAIワークロードを実装するための最近のパラダイムとして登場した。
本稿では,レート・精度・複雑さのトレードオフを最適化する上での課題に対処するアプローチを提案する。
我々のアプローチは、トレーニングと推論の両方において非常に軽量であり、非常に効果的であり、高い速度歪曲性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T15:02:11Z) - Efficient and Robust Mixed-Integer Optimization Methods for Training
Binarized Deep Neural Networks [0.07614628596146598]
二元活性化関数と連続または整数重み付きディープニューラルネットワーク(BDNN)について検討する。
BDNNは、古典的な混合整数計画解法により、大域的最適性に解けるような、有界な重み付き混合整数線形プログラムとして再構成可能であることを示す。
トレーニング中にBDNNの堅牢性を強制するロバストモデルが初めて提示される。
論文 参考訳(メタデータ) (2021-10-21T18:02:58Z) - Spike time displacement based error backpropagation in convolutional
spiking neural networks [0.6193838300896449]
本稿では,STiDi-BPアルゴリズムを拡張し,より深く,畳み込み型アーキテクチャに応用する。
MNISTとFashion-MNISTの2つのベンチマークに基づく画像分類タスクの評価結果から,このアルゴリズムが深部SNNに適用可能であることを確認した。
後進パスで更新される実数値重みと、フィードフォワードプロセスで使用される2値重みと、その記号と2値重みの2つの重みを持つ畳み込みSNNを考える。
論文 参考訳(メタデータ) (2021-08-31T05:18:59Z) - Low-Precision Training in Logarithmic Number System using Multiplicative
Weight Update [49.948082497688404]
大規模ディープニューラルネットワーク(DNN)のトレーニングは、現在かなりの量のエネルギーを必要としており、深刻な環境影響をもたらす。
エネルギーコストを削減するための有望なアプローチの1つは、DNNを低精度で表現することである。
対数数システム(LNS)と乗算重み更新訓練法(LNS-Madam)を併用した低精度トレーニングフレームワークを共同で設計する。
論文 参考訳(メタデータ) (2021-06-26T00:32:17Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Partitioning sparse deep neural networks for scalable training and
inference [8.282177703075453]
最先端のディープニューラルネットワーク(DNN)には、計算とデータ管理の大幅な要件がある。
スパシフィケーション法とプルーニング法は,DNNの大量の接続を除去するのに有効であることが示されている。
その結果得られたスパースネットワークは、ディープラーニングにおけるトレーニングと推論の計算効率をさらに向上するためのユニークな課題を提示する。
論文 参考訳(メタデータ) (2021-04-23T20:05:52Z) - A Fully Tensorized Recurrent Neural Network [48.50376453324581]
重み付けされたRNNアーキテクチャを導入し、各リカレントセル内の個別の重み付け行列を共同で符号化する。
このアプローチはモデルのサイズを数桁削減するが、通常のRNNと同等あるいは優れた性能を維持している。
論文 参考訳(メタデータ) (2020-10-08T18:24:12Z) - Learning Sparse & Ternary Neural Networks with Entropy-Constrained
Trained Ternarization (EC2T) [17.13246260883765]
ディープニューラルネットワーク(DNN)は、さまざまな機械学習アプリケーションで顕著な成功を収めている。
近年,資源に制約のあるデバイスにDNNを配置することへの関心が高まっている。
本稿では,スパースニューラルネットワークと3次ニューラルネットワークの汎用フレームワークであるEntropy-Constrained Trained Ternarization (EC2T)を提案する。
論文 参考訳(メタデータ) (2020-04-02T15:38:00Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。