論文の概要: A Configurable BNN ASIC using a Network of Programmable Threshold Logic
Standard Cells
- arxiv url: http://arxiv.org/abs/2104.01699v1
- Date: Sun, 4 Apr 2021 21:28:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-07 02:10:23.945297
- Title: A Configurable BNN ASIC using a Network of Programmable Threshold Logic
Standard Cells
- Title(参考訳): プログラマブルしきい値論理標準セルのネットワークを用いた構成可能なbnn asic
- Authors: Ankit Wagle and Sunil Khatri and Sarma Vrudhula
- Abstract要約: Tは、任意のBNNの操作を実行するための最適なスケジュールを使用するバイナリニューラルネットワーク(BNN)の新しいアーキテクチャである。
分類ごとのエネルギー効率を最大化する目的で建設された。
- 参考スコア(独自算出の注目度): 1.6114012813668934
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents TULIP, a new architecture for a binary neural network
(BNN) that uses an optimal schedule for executing the operations of an
arbitrary BNN. It was constructed with the goal of maximizing energy efficiency
per classification. At the top-level, TULIP consists of a collection of unique
processing elements (TULIP-PEs) that are organized in a SIMD fashion. Each
TULIP-PE consists of a small network of binary neurons, and a small amount of
local memory per neuron. The unique aspect of the binary neuron is that it is
implemented as a mixed-signal circuit that natively performs the inner-product
and thresholding operation of an artificial binary neuron. Moreover, the binary
neuron, which is implemented as a single CMOS standard cell, is reconfigurable,
and with a change in a single parameter, can implement all standard operations
involved in a BNN. We present novel algorithms for mapping arbitrary nodes of a
BNN onto the TULIP-PEs. TULIP was implemented as an ASIC in TSMC 40nm-LP
technology. To provide a fair comparison, a recently reported BNN that employs
a conventional MAC-based arithmetic processor was also implemented in the same
technology. The results show that TULIP is consistently 3X more
energy-efficient than the conventional design, without any penalty in
performance, area, or accuracy.
- Abstract(参考訳): 本稿では、任意のBNNの動作を実行するために最適なスケジュールを使用するバイナリニューラルネットワーク(BNN)の新しいアーキテクチャであるTULIPを提案する。
分類ごとのエネルギー効率を最大化する目的で建設された。
トップレベルでは、TULIPはSIMD形式で構成された独自の処理要素(TULIP-PE)の集合からなる。
各TULIP-PEは、バイナリニューロンの小さなネットワークと、ニューロン当たりのローカルメモリの少ないネットワークで構成されている。
二元ニューロンのユニークな側面は、人工二元ニューロンの内部積および閾値操作をネイティブに実行する混合信号回路として実装されていることである。
さらに、単一CMOS標準セルとして実装されたバイナリニューロンは再構成可能であり、単一のパラメータを変更することで、BNNに関連するすべての標準操作を実装することができる。
本稿では,BNNの任意のノードをTULIP-PEにマッピングするアルゴリズムを提案する。
TULIPはTSMC 40nm-LP技術においてASICとして実装された。
公正な比較のために、従来のMACベースの算術演算プロセッサを用いた最近報告されたBNNも同じ技術で実装された。
その結果、TULIPは従来の設計より3倍エネルギー効率が高く、性能、面積、精度にペナルティはないことがわかった。
関連論文リスト
- NeuralMatrix: Compute the Entire Neural Networks with Linear Matrix Operations for Efficient Inference [20.404864470321897]
本稿では,ディープニューラルネットワーク(DNN)モデル全体の計算を線形行列演算に弾性的に変換するニューラルマトリックスを提案する。
CNNとトランスフォーマーベースのモデルによる実験は、広範囲のDNNモデルを正確かつ効率的に実行するためのNeuralMatrixの可能性を実証している。
このレベルの効率性は通常、特定のニューラルネットワーク用に設計されたアクセラレータでのみ達成できる。
論文 参考訳(メタデータ) (2023-05-23T12:03:51Z) - Compacting Binary Neural Networks by Sparse Kernel Selection [58.84313343190488]
本稿は,BNNにおけるバイナリカーネルの分散化がほぼ不可能であることを示すものである。
我々は、選択過程をエンドツーエンドに最適化するだけでなく、選択したコードワードの非反復的占有を維持できる置換ストレートスルー推定器(PSTE)を開発した。
実験により,提案手法はモデルサイズとビット幅の計算コストの両方を削減し,同等の予算下での最先端のBNNと比較して精度の向上を実現する。
論文 参考訳(メタデータ) (2023-03-25T13:53:02Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Basic Binary Convolution Unit for Binarized Image Restoration Network [146.0988597062618]
本研究では,画像復元作業における残差接続,BatchNorm,アクティベーション機能,構造などのバイナリ畳み込みのコンポーネントを再検討する。
本研究の成果と分析に基づいて, 単純で効率的な基本二元畳み込みユニット (BBCU) を設計した。
我々のBBCUは、他のBNNや軽量モデルよりも大幅に優れており、BBCUがバイナライズされたIRネットワークの基本ユニットとして機能することを示しています。
論文 参考訳(メタデータ) (2022-10-02T01:54:40Z) - PECAN: A Product-Quantized Content Addressable Memory Network [6.530758154165138]
フィルタリングと線形変換は製品量子化(PQ)によってのみ実現される
これにより、コンテンツアドレス可能なメモリ(CAM)による自然な実装が実現される。
PECAN(Product-Quantized Content Addressable Memory Network)の実現可能性を確認する実験
論文 参考訳(メタデータ) (2022-08-13T08:33:56Z) - Ultra-compact Binary Neural Networks for Human Activity Recognition on
RISC-V Processors [10.195581493173643]
HAR(Human Activity Recognition)は、多くのモバイルアプリケーションにおいて、関連する推論タスクである。
本稿では、ディープニューラルネットワークに基づくHARの新たな実装と、BNN(Binary Neural Networks)の高精度な実装を提案する。
BNNはビット演算をビット演算に置き換えたことにより、メモリフットプリントが非常に小さく、推論の複雑さが低い。
論文 参考訳(メタデータ) (2022-05-25T13:52:35Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - A Temporal Neural Network Architecture for Online Learning [0.6091702876917281]
時間的ニューラルネットワーク(TNN)は、相対スパイク時間として符号化された情報を通信し、処理する。
TNNアーキテクチャを提案し、概念実証として、オンライン教師付き分類のより大きな文脈でTNNの動作を示す。
論文 参考訳(メタデータ) (2020-11-27T17:15:29Z) - Learning Power Control for Cellular Systems with Heterogeneous Graph
Neural Network [37.060397377445504]
電力制御ポリシには異なるPI特性とPE特性が組み合わさっており,既存のHetGNNはこれらの特性を満足していないことを示す。
We design a parameter sharing scheme for HetGNN that the learned relationship satisfed the desired properties。
論文 参考訳(メタデータ) (2020-11-06T02:41:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。