論文の概要: MajorityNets: BNNs Utilising Approximate Popcount for Improved
Efficiency
- arxiv url: http://arxiv.org/abs/2002.12900v1
- Date: Thu, 27 Feb 2020 04:02:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 09:33:30.989039
- Title: MajorityNets: BNNs Utilising Approximate Popcount for Improved
Efficiency
- Title(参考訳): MajorityNets: 効率を改善するために近似人口を利用するBNN
- Authors: Seyedramin Rasoulinezhad, Sean Fox, Hao Zhou, Lingli Wang, David
Boland, Philip H.W. Leong
- Abstract要約: 本稿では、XNorMajと呼ばれるXnorPopcount演算のより小さく、より速く、よりエネルギー効率の良い近似置換を提案する。
XNorMajはXnorPopcount操作の最大2倍のリソース効率を持つことを示す。
- 参考スコア(独自算出の注目度): 13.186127108769615
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Binarized neural networks (BNNs) have shown exciting potential for utilising
neural networks in embedded implementations where area, energy and latency
constraints are paramount. With BNNs, multiply-accumulate (MAC) operations can
be simplified to XnorPopcount operations, leading to massive reductions in both
memory and computation resources. Furthermore, multiple efficient
implementations of BNNs have been reported on field-programmable gate array
(FPGA) implementations. This paper proposes a smaller, faster, more
energy-efficient approximate replacement for the XnorPopcountoperation, called
XNorMaj, inspired by state-of-the-art FPGAlook-up table schemes which benefit
FPGA implementations. Weshow that XNorMaj is up to 2x more resource-efficient
than the XnorPopcount operation. While the XNorMaj operation has a minor
detrimental impact on accuracy, the resource savings enable us to use larger
networks to recover the loss.
- Abstract(参考訳): 二元化ニューラルネットワーク(BNN)は、領域、エネルギー、レイテンシの制約が最重要である組み込み実装でニューラルネットワークを利用するエキサイティングな可能性を示している。
BNNでは、Multiply-accumulate (MAC)操作をXnorPopcount操作に単純化することができ、メモリと計算リソースの両方が大幅に削減される。
さらに、フィールドプログラマブルゲートアレイ(FPGA)の実装において、BNNの複数の効率的な実装が報告されている。
本稿では,FPGA実装の恩恵を受ける最新のFPGAルックアップテーブルスキームに触発された,XnorPopcountoperation のより小さく,よりエネルギー効率の良い近似置換 XNorMaj を提案する。
XNorMajはXnorPopcount操作の最大2倍のリソース効率を持つことを示す。
xnormaj操作は正確性に小さな有害な影響を与えるが、リソースの節約により、大きなネットワークを使って損失を回復できる。
関連論文リスト
- NeuraLUT: Hiding Neural Network Density in Boolean Synthesizable Functions [2.7086888205833968]
Field-Programmable Gate Array (FPGA)アクセラレータは、レイテンシとリソースクリティカルなDeep Neural Network (DNN)推論タスクの処理に成功している。
本稿では、ニューロンの境界を緩和し、サブネットワーク全体を単一のLUTにマッピングすることを提案する。
提案手法は,既知の遅延クリティカルタスク,ジェットサブストラクチャタグ,古典的コンピュータビジョンタスク,MNISTを用いた桁分類で検証する。
論文 参考訳(メタデータ) (2024-02-29T16:10:21Z) - An Optical XNOR-Bitcount Based Accelerator for Efficient Inference of
Binary Neural Networks [0.0]
単一MRRを用いた光XNORゲート(OXG)を発明する
我々は光電荷蓄積器(PCA)と呼ばれるビットカウント回路の新規設計を提案する。
最新の4つのBNNを推定すると、OXBNNはFPS(F frames-per-second)とFPS/W(エネルギー効率)において最大62倍と7.6倍の改善を実現していることがわかる。
論文 参考訳(メタデータ) (2023-02-03T20:56:01Z) - FireFly: A High-Throughput Hardware Accelerator for Spiking Neural
Networks with Efficient DSP and Memory Optimization [6.966706170499345]
スパイキングニューラルネットワーク(SNN)は、強い生物学的解釈性と高エネルギー効率のために広く利用されている。
フィールドプログラマブルゲートアレイ(FPGA)のためのほとんどのSNNハードウェア実装は、演算やメモリ効率の要求を満たすことができない。
発火ニューロンから発生するスパイクをオンザフライ(FireFly)で処理できるFPGAアクセラレータを提案する。
論文 参考訳(メタデータ) (2023-01-05T04:28:07Z) - Recurrent Bilinear Optimization for Binary Neural Networks [58.972212365275595]
BNNは、実数値重みとスケールファクターの内在的双線型関係を無視している。
私たちの仕事は、双線形の観点からBNNを最適化する最初の試みです。
我々は、様々なモデルやデータセット上で最先端のBNNに対して印象的な性能を示す頑健なRBONNを得る。
論文 参考訳(メタデータ) (2022-09-04T06:45:33Z) - POEM: 1-bit Point-wise Operations based on Expectation-Maximization for
Efficient Point Cloud Processing [53.74076015905961]
我々は,効率的なポイントクラウド処理のために,期待最大化に基づくポイントワイズ処理をBNNに導入する。
私たちのPOEMは、最先端のバイナリポイントクラウドネットワークを6.7%まで大きく上回っている。
論文 参考訳(メタデータ) (2021-11-26T09:45:01Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - NullaNet Tiny: Ultra-low-latency DNN Inference Through Fixed-function
Combinational Logic [4.119948826527649]
フィールドプログラマブルゲートアレイ(FPGA)ベースのアクセラレータは、グラフィックス処理ユニット/中央処理ユニットベースのプラットフォームを置き換える深刻な競争相手として注目を集めています。
本稿では,資源とエネルギー効率,超低遅延FPGAベースニューラルネットワークアクセラレータ構築のためのフレームワークであるNullaNet Tinyを提案する。
論文 参考訳(メタデータ) (2021-04-07T00:16:39Z) - FracBNN: Accurate and FPGA-Efficient Binary Neural Networks with
Fractional Activations [20.218382369944152]
binary neural network (bnns) は1ビットの重みとアクティベーションを持つ。
BNNはImageNetのような現実的なデータセットの精度がはるかに低い傾向にある。
本研究では、BNNの精度を大幅に向上させるために分数活性化を利用するFracBNNを提案する。
論文 参考訳(メタデータ) (2020-12-22T17:49:30Z) - ShiftAddNet: A Hardware-Inspired Deep Network [87.18216601210763]
ShiftAddNetはエネルギー効率のよい乗算レスディープニューラルネットワークである。
エネルギー効率のよい推論とトレーニングの両方につながるが、表現能力は損なわれない。
ShiftAddNetは、DNNのトレーニングと推論において、80%以上のハードウェア量子化されたエネルギーコストを積極的に削減し、同等またはより良い精度を提供する。
論文 参考訳(メタデータ) (2020-10-24T05:09:14Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。