論文の概要: ROBIN: A Robust Optical Binary Neural Network Accelerator
- arxiv url: http://arxiv.org/abs/2107.05530v1
- Date: Mon, 12 Jul 2021 16:00:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-13 15:38:03.776385
- Title: ROBIN: A Robust Optical Binary Neural Network Accelerator
- Title(参考訳): ROBIN:ロバストな光バイナリニューラルネットワーク加速器
- Authors: Febin P. Sunny, Asif Mirza, Mahdi Nikdast, Sudeep Pasricha
- Abstract要約: ドメイン固有のニューラルネットワークアクセラレータは、エネルギー効率と推論性能の改善により注目されている。
我々は、ヘテロジニアスマイクロリング共振器光デバイスをインテリジェントに統合する、ROBINという新しい光ドメインBNN加速器を提案する。
我々の分析によると、RBBINは最もよく知られている光BNN加速器や多くの電子加速器よりも優れている。
- 参考スコア(独自算出の注目度): 3.8137985834223507
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Domain specific neural network accelerators have garnered attention because
of their improved energy efficiency and inference performance compared to CPUs
and GPUs. Such accelerators are thus well suited for resource-constrained
embedded systems. However, mapping sophisticated neural network models on these
accelerators still entails significant energy and memory consumption, along
with high inference time overhead. Binarized neural networks (BNNs), which
utilize single-bit weights, represent an efficient way to implement and deploy
neural network models on accelerators. In this paper, we present a novel
optical-domain BNN accelerator, named ROBIN, which intelligently integrates
heterogeneous microring resonator optical devices with complementary
capabilities to efficiently implement the key functionalities in BNNs. We
perform detailed fabrication-process variation analyses at the optical device
level, explore efficient corrective tuning for these devices, and integrate
circuit-level optimization to counter thermal variations. As a result, our
proposed ROBIN architecture possesses the desirable traits of being robust,
energy-efficient, low latency, and high throughput, when executing BNN models.
Our analysis shows that ROBIN can outperform the best-known optical BNN
accelerators and also many electronic accelerators. Specifically, our
energy-efficient ROBIN design exhibits energy-per-bit values that are ~4x lower
than electronic BNN accelerators and ~933x lower than a recently proposed
photonic BNN accelerator, while a performance-efficient ROBIN design shows ~3x
and ~25x better performance than electronic and photonic BNN accelerators,
respectively.
- Abstract(参考訳): ドメイン固有のニューラルネットワークアクセラレータは、CPUやGPUと比較してエネルギー効率と推論性能が改善されたため、注目を集めている。
このような加速器はリソース制約のある組み込みシステムに適している。
しかし、これらの加速器に洗練されたニューラルネットワークモデルをマッピングすることは、高い推論時間オーバーヘッドとともに、膨大なエネルギーとメモリ消費を必要とする。
シングルビット重みを使用するbinarized neural networks(bnns)は、ニューラルネットワークモデルをアクセラレーターに実装し、デプロイする効率的な方法である。
本稿では,不均質マイクロリング共振器光デバイスと相補的機能とをインテリジェントに統合し,BNNの重要な機能を効率的に実装する,新しい光ドメインBNNアクセラレータROBINを提案する。
我々は、光学デバイスレベルでの詳細な製造プロセス変動解析を行い、これらのデバイスの効率的な補正チューニングを探索し、サーキットレベルの最適化を統合して熱変動対策を行う。
その結果,提案するRBBINアーキテクチャは,BNNモデルの実行時に,ロバスト,エネルギー効率,低レイテンシ,高スループットという望ましい特性を有することがわかった。
我々の分析によると、RBBINは最もよく知られている光BNN加速器や多くの電子加速器よりも優れている。
特に、我々のエネルギー効率の高いロビン設計は、電子bnn加速器より約4倍、最近提案されたフォトニックbnn加速器より約933倍、電子およびフォトニックbnn加速器よりも約3倍、25倍のエネルギー効率を示す。
関連論文リスト
- Spiker+: a framework for the generation of efficient Spiking Neural
Networks FPGA accelerators for inference at the edge [49.42371633618761]
Spiker+はFPGA上で、エッジでの推論のために効率よく、低消費電力で、低領域でカスタマイズされたSpking Neural Networks(SNN)アクセラレータを生成するためのフレームワークである。
Spiker+ は MNIST と Spiking Heidelberg Digits (SHD) の2つのベンチマークデータセットでテストされている。
論文 参考訳(メタデータ) (2024-01-02T10:42:42Z) - EPIM: Efficient Processing-In-Memory Accelerators based on Epitome [78.79382890789607]
畳み込みのような機能を提供する軽量神経オペレータであるEpitomeを紹介する。
ソフトウェア側では,PIMアクセラレータ上でのエピトームのレイテンシとエネルギを評価する。
ハードウェア効率を向上させるため,PIM対応層設計手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T17:56:39Z) - FireFly v2: Advancing Hardware Support for High-Performance Spiking
Neural Network with a Spatiotemporal FPGA Accelerator [8.0611988136866]
Spiking Neural Networks(SNN)は、Artificial Neural Networks(ANN)の代替として期待されている。
特殊なSNNハードウェアは、電力と性能の点で汎用デバイスよりも明確な優位性を提供する。
FPGA SNNアクセラレータであるFireFly v2は、現在のSOTA SNNアルゴリズムにおける非スパイク操作の問題に対処することができる。
論文 参考訳(メタデータ) (2023-09-28T04:17:02Z) - SupeRBNN: Randomized Binary Neural Network Using Adiabatic
Superconductor Josephson Devices [44.440915387556544]
AQFPデバイスはバイナリニューラルネットワーク(BNN)計算の優れたキャリアとして機能する。
本稿では,AQFPに基づくランダム化BNNアクセラレーションフレームワークSupeRBNNを提案する。
本稿では,ReRAMベースのBNNフレームワークのエネルギー効率を約7.8×104倍に向上することを示す。
論文 参考訳(メタデータ) (2023-09-21T16:14:42Z) - An Optical XNOR-Bitcount Based Accelerator for Efficient Inference of
Binary Neural Networks [0.0]
単一MRRを用いた光XNORゲート(OXG)を発明する
我々は光電荷蓄積器(PCA)と呼ばれるビットカウント回路の新規設計を提案する。
最新の4つのBNNを推定すると、OXBNNはFPS(F frames-per-second)とFPS/W(エネルギー効率)において最大62倍と7.6倍の改善を実現していることがわかる。
論文 参考訳(メタデータ) (2023-02-03T20:56:01Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - O-HAS: Optical Hardware Accelerator Search for Boosting Both
Acceleration Performance and Development Speed [13.41883640945134]
O-HASは、(1)光学的加速器のエネルギーと遅延をDNNモデルパラメータと光学的加速器設計に基づいて正確に正確に正確に予測できるO-Cost予測器、(2)光学的DNN加速器の大規模な設計空間を自動で探索できるO-Searchエンジンの2つの統合イネーラから構成される。
O-Cost PredictorとO-Search Engineの有効性を一貫して検証した。
論文 参考訳(メタデータ) (2021-08-17T09:50:14Z) - High-Performance FPGA-based Accelerator for Bayesian Neural Networks [5.86877988129171]
本研究は,モンテカルロ・ドロップアウトから推定されるBNNを高速化するFPGAベースのハードウェアアーキテクチャを提案する。
他の最先端のBNN加速器と比較して、提案された加速器は最大で4倍のエネルギー効率と9倍の計算効率を達成することができる。
論文 参考訳(メタデータ) (2021-05-12T06:20:44Z) - Random and Adversarial Bit Error Robustness: Energy-Efficient and Secure
DNN Accelerators [105.60654479548356]
固定点量子化と重み切り、およびランダムビット誤り訓練(RandBET)の組み合わせにより、量子化DNN重みにおけるランダムビット誤りや逆ビット誤りに対するロバスト性を著しく向上することを示す。
これは低電圧運転のための高省エネと低精度量子化をもたらすが、DNN加速器の安全性も向上する。
論文 参考訳(メタデータ) (2021-04-16T19:11:14Z) - Bit Error Robustness for Energy-Efficient DNN Accelerators [93.58572811484022]
本稿では、ロバストな固定点量子化、重み切り、ランダムビット誤り訓練(RandBET)の組み合わせにより、ランダムビット誤りに対するロバスト性を向上することを示す。
これは低電圧動作と低精度量子化の両方から高エネルギーの節約につながる。
論文 参考訳(メタデータ) (2020-06-24T18:23:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。