論文の概要: Weightless Neural Networks for Efficient Edge Inference
- arxiv url: http://arxiv.org/abs/2203.01479v1
- Date: Thu, 3 Mar 2022 01:46:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-05 09:03:16.042321
- Title: Weightless Neural Networks for Efficient Edge Inference
- Title(参考訳): エッジ推論のための軽量ニューラルネットワーク
- Authors: Zachary Susskind, Aman Arora, Igor Dantas Dos Santos Miranda, Luis
Armando Quintanilla Villon, Rafael Fontella Katopodis, Leandro Santiago de
Araujo, Diego Leonel Cadette Dutra, Priscila Machado Vieira Lima, Felipe Maia
Galvao Franca, Mauricio Breternitz Jr., and Lizy K. John
- Abstract要約: ウェイトレスニューラルネットワーク(WNN)は、テーブルルックアップを使用して推論を行う機械学習モデルのクラスである。
本稿では,WNN アーキテクチャ BTHOWeN を提案する。
BTHOWeNは、より優れたレイテンシとエネルギー効率を提供することで、大規模で成長するエッジコンピューティングセクターをターゲットにしている。
- 参考スコア(独自算出の注目度): 1.7882696915798877
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Weightless Neural Networks (WNNs) are a class of machine learning model which
use table lookups to perform inference. This is in contrast with Deep Neural
Networks (DNNs), which use multiply-accumulate operations. State-of-the-art WNN
architectures have a fraction of the implementation cost of DNNs, but still lag
behind them on accuracy for common image recognition tasks. Additionally, many
existing WNN architectures suffer from high memory requirements. In this paper,
we propose a novel WNN architecture, BTHOWeN, with key algorithmic and
architectural improvements over prior work, namely counting Bloom filters,
hardware-friendly hashing, and Gaussian-based nonlinear thermometer encodings
to improve model accuracy and reduce area and energy consumption. BTHOWeN
targets the large and growing edge computing sector by providing superior
latency and energy efficiency to comparable quantized DNNs. Compared to
state-of-the-art WNNs across nine classification datasets, BTHOWeN on average
reduces error by more than than 40% and model size by more than 50%. We then
demonstrate the viability of the BTHOWeN architecture by presenting an
FPGA-based accelerator, and compare its latency and resource usage against
similarly accurate quantized DNN accelerators, including Multi-Layer Perceptron
(MLP) and convolutional models. The proposed BTHOWeN models consume almost 80%
less energy than the MLP models, with nearly 85% reduction in latency. In our
quest for efficient ML on the edge, WNNs are clearly deserving of additional
attention.
- Abstract(参考訳): ウェイトレスニューラルネットワーク(WNN)は、テーブルルックアップを使用して推論を行う機械学習モデルのクラスである。
これは、乗算累積演算を使用するディープニューラルネットワーク(DNN)とは対照的である。
最先端のWNNアーキテクチャは、DNNの実装コストのごく一部であるが、一般的な画像認識タスクの精度に遅れを取っている。
さらに、既存のWNNアーキテクチャの多くは高いメモリ要求に悩まされている。
本稿では,ブルームフィルタの数え上げ,ハードウェアフレンドリーなハッシュ処理,ガウス型非線形温度計エンコーディングなど,先行作業よりもアルゴリズム的かつアーキテクチャ上重要な改良を施した,新しいwnnアーキテクチャであるbthowenを提案する。
BTHOWeNは、同等の量子化されたDNNに優れたレイテンシとエネルギー効率を提供することで、大規模で成長するエッジコンピューティングセクターをターゲットにしている。
9つの分類データセットにわたる最先端のWNNと比較すると、BTHOWeNの平均誤差は40%以上、モデルサイズは50%以上減少する。
次に,fpgaベースの加速器を提示することにより,bthowenアーキテクチャの有効性を実証し,マルチレイヤー・パーセプトロン(mlp)や畳み込みモデルなど,同様の精度の高い量子化dnn加速器と比較した。
提案されたBTHOWeNモデルは、MLPモデルよりも約80%少ないエネルギーを消費し、遅延は85%削減された。
エッジ上で効率的なMLを求める中で、WNNは明らかに追加の注意を払っている。
関連論文リスト
- GhostRNN: Reducing State Redundancy in RNN with Cheap Operations [66.14054138609355]
本稿では,効率的なRNNアーキテクチャであるGhostRNNを提案する。
KWSとSEタスクの実験により、提案されたGhostRNNはメモリ使用量(40%)と計算コストを大幅に削減し、性能は類似している。
論文 参考訳(メタデータ) (2024-11-20T11:37:14Z) - NAS-BNN: Neural Architecture Search for Binary Neural Networks [55.058512316210056]
我々は、NAS-BNNと呼ばれる二元ニューラルネットワークのための新しいニューラルネットワーク探索手法を提案する。
我々の発見したバイナリモデルファミリーは、20Mから2Mまでの幅広い操作(OP)において、以前のBNNよりも優れていた。
さらに,対象検出タスクにおける探索されたBNNの転送可能性を検証するとともに,探索されたBNNを用いたバイナリ検出器は,MSデータセット上で31.6% mAP,370万 OPsなどの新たな最先端結果を得る。
論文 参考訳(メタデータ) (2024-08-28T02:17:58Z) - Hardware-Aware DNN Compression via Diverse Pruning and Mixed-Precision
Quantization [1.0235078178220354]
本稿では, プルーニングと量子化を併用してハードウェアに配慮したディープニューラルネットワーク(DNN)の自動圧縮フレームワークを提案する。
われわれのフレームワークはデータセットの平均エネルギー消費量を39%減らし、平均精度損失を1.7%減らし、最先端のアプローチを著しく上回っている。
論文 参考訳(メタデータ) (2023-12-23T18:50:13Z) - Can Deep Neural Networks be Converted to Ultra Low-Latency Spiking
Neural Networks? [3.2108350580418166]
スパイクニューラルネットワーク(SNN)は、時間とともに分散されたバイナリスパイクを介して動作する。
SNNのためのSOTAトレーニング戦略は、非スパイキングディープニューラルネットワーク(DNN)からの変換を伴う
そこで本研究では,DNNと変換SNNの誤差を最小限に抑えながら,これらの分布を正確にキャプチャする新たなトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-12-22T18:47:45Z) - Elastic-Link for Binarized Neural Network [9.83865304744923]
ELモジュールは、その後の畳み込み出力特徴に実値入力特徴を適応的に付加することにより、BNN内の情報フローを豊かにする。
ELは、大規模なImageNetデータセットに挑戦する上で、大幅に改善されている。
ReActNetの統合により、71.9%の精度で新しい最先端結果が得られる。
論文 参考訳(メタデータ) (2021-12-19T13:49:29Z) - DTNN: Energy-efficient Inference with Dendrite Tree Inspired Neural
Networks for Edge Vision Applications [2.1800759000607024]
本稿では,活性化量子化によって実現されたテーブルルックアップ操作を用いたエネルギー効率の高い推論のためのDendrite-Tree-based Neural Network (DTNN)を提案する。
DTNNはResNet-18とVGG-11でそれぞれ19.4Xと64.9Xの大幅な省エネを実現した。
論文 参考訳(メタデータ) (2021-05-25T11:44:12Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - FracBNN: Accurate and FPGA-Efficient Binary Neural Networks with
Fractional Activations [20.218382369944152]
binary neural network (bnns) は1ビットの重みとアクティベーションを持つ。
BNNはImageNetのような現実的なデータセットの精度がはるかに低い傾向にある。
本研究では、BNNの精度を大幅に向上させるために分数活性化を利用するFracBNNを提案する。
論文 参考訳(メタデータ) (2020-12-22T17:49:30Z) - FATNN: Fast and Accurate Ternary Neural Networks [89.07796377047619]
Ternary Neural Networks (TNN) は、完全な精度のニューラルネットワークよりもはるかに高速で、電力効率が高いため、多くの注目を集めている。
そこで本研究では、3次内積の計算複雑性を2。
性能ギャップを軽減するために,実装に依存した3次量子化アルゴリズムを精巧に設計する。
論文 参考訳(メタデータ) (2020-08-12T04:26:18Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z) - PatDNN: Achieving Real-Time DNN Execution on Mobile Devices with
Pattern-based Weight Pruning [57.20262984116752]
粗粒構造の内部に新しい次元、きめ細かなプルーニングパターンを導入し、これまで知られていなかった設計空間の点を明らかにした。
きめ細かいプルーニングパターンによって高い精度が実現されているため、コンパイラを使ってハードウェア効率を向上し、保証することがユニークな洞察である。
論文 参考訳(メタデータ) (2020-01-01T04:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。