論文の概要: An Optical XNOR-Bitcount Based Accelerator for Efficient Inference of
Binary Neural Networks
- arxiv url: http://arxiv.org/abs/2302.06405v1
- Date: Fri, 3 Feb 2023 20:56:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 14:20:03.936248
- Title: An Optical XNOR-Bitcount Based Accelerator for Efficient Inference of
Binary Neural Networks
- Title(参考訳): バイナリニューラルネットワークの効率的な推論のための光xnor-bitcountベース加速器
- Authors: Sairam Sri Vatsavai, Venkata Sai Praneeth Karempudi, and Ishan Thakkar
- Abstract要約: 単一MRRを用いた光XNORゲート(OXG)を発明する
我々は光電荷蓄積器(PCA)と呼ばれるビットカウント回路の新規設計を提案する。
最新の4つのBNNを推定すると、OXBNNはFPS(F frames-per-second)とFPS/W(エネルギー効率)において最大62倍と7.6倍の改善を実現していることがわかる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Binary Neural Networks (BNNs) are increasingly preferred over full-precision
Convolutional Neural Networks(CNNs) to reduce the memory and computational
requirements of inference processing with minimal accuracy drop. BNNs convert
CNN model parameters to 1-bit precision, allowing inference of BNNs to be
processed with simple XNOR and bitcount operations. This makes BNNs amenable to
hardware acceleration. Several photonic integrated circuits (PICs) based BNN
accelerators have been proposed. Although these accelerators provide remarkably
higher throughput and energy efficiency than their electronic counterparts, the
utilized XNOR and bitcount circuits in these accelerators need to be further
enhanced to improve their area, energy efficiency, and throughput. This paper
aims to fulfill this need. For that, we invent a single-MRR-based optical XNOR
gate (OXG). Moreover, we present a novel design of bitcount circuit which we
refer to as Photo-Charge Accumulator (PCA). We employ multiple OXGs in a
cascaded manner using dense wavelength division multiplexing (DWDM) and connect
them to the PCA, to forge a novel Optical XNOR-Bitcount based Binary Neural
Network Accelerator (OXBNN). Our evaluation for the inference of four modern
BNNs indicates that OXBNN provides improvements of up to 62x and 7.6x in
frames-per-second (FPS) and FPS/W (energy efficiency), respectively, on
geometric mean over two PIC-based BNN accelerators from prior work. We
developed a transaction-level, event-driven python-based simulator for
evaluation of accelerators (https://github.com/uky-UCAT/B_ONN_SIM).
- Abstract(参考訳): バイナリニューラルネットワーク(BNN)は、最小の精度で推論処理のメモリと計算要求を減らすために、完全精度の畳み込みニューラルネットワーク(CNN)よりもますます好まれる。
BNNはCNNモデルのパラメータを1ビット精度に変換し、単純なXNORとビットカウント操作でBNNの推測を行う。
これにより、BNNはハードウェアアクセラレーションに対応できる。
いくつかのフォトニック集積回路(PIC)ベースのBNNアクセラレータが提案されている。
これらの加速器は、電子回路よりも驚くほど高いスループットとエネルギー効率を提供するが、利用したXNORとビットカウント回路は、その面積、エネルギー効率、スループットを改善するためにさらに強化する必要がある。
本論文は,このニーズを満たすことを目的とする。
そこで我々は,単一MRRを用いた光XNORゲート(OXG)を発明した。
さらに,光電荷蓄積器(PCA)と呼ばれるビット数回路の新規な設計を提案する。
我々は、高密度波長分割多重化(DWDM)を用いて複数のOXGを用いてPCAに接続し、新しい光XNOR-Bitcountベースのバイナリニューラルネットワーク加速器(OXBNN)を構築する。
最新の4つのBNNを推定した結果,OXBNNは1秒あたり62倍,7.6倍のFPS/W(エネルギー効率)を実現していることがわかった。
我々は,アクセル評価のためのトランザクションレベル・イベント駆動型ピソンシミュレータ(https://github.com/uky-UCAT/B_ONN_SIM)を開発した。
関連論文リスト
- Compacting Binary Neural Networks by Sparse Kernel Selection [58.84313343190488]
本稿は,BNNにおけるバイナリカーネルの分散化がほぼ不可能であることを示すものである。
我々は、選択過程をエンドツーエンドに最適化するだけでなく、選択したコードワードの非反復的占有を維持できる置換ストレートスルー推定器(PSTE)を開発した。
実験により,提案手法はモデルサイズとビット幅の計算コストの両方を削減し,同等の予算下での最先端のBNNと比較して精度の向上を実現する。
論文 参考訳(メタデータ) (2023-03-25T13:53:02Z) - Basic Binary Convolution Unit for Binarized Image Restoration Network [146.0988597062618]
本研究では,画像復元作業における残差接続,BatchNorm,アクティベーション機能,構造などのバイナリ畳み込みのコンポーネントを再検討する。
本研究の成果と分析に基づいて, 単純で効率的な基本二元畳み込みユニット (BBCU) を設計した。
我々のBBCUは、他のBNNや軽量モデルよりも大幅に優れており、BBCUがバイナライズされたIRネットワークの基本ユニットとして機能することを示しています。
論文 参考訳(メタデータ) (2022-10-02T01:54:40Z) - Recurrent Bilinear Optimization for Binary Neural Networks [58.972212365275595]
BNNは、実数値重みとスケールファクターの内在的双線型関係を無視している。
私たちの仕事は、双線形の観点からBNNを最適化する最初の試みです。
我々は、様々なモデルやデータセット上で最先端のBNNに対して印象的な性能を示す頑健なRBONNを得る。
論文 参考訳(メタデータ) (2022-09-04T06:45:33Z) - Binary Neural Networks as a general-propose compute paradigm for
on-device computer vision [0.0]
本稿では,1)ハードウェアフレンドリ性のための最小限の推論スキーム,2)高精度な過剰パラメータ化トレーニングスキーム,3)異なる視覚タスクに適応するための簡単な手順からなるBNNフレームワークを提案する。
このフレームワークは、分類、検出、セグメンテーション、超解像、マッチングのための速度-vs精度トレードオフにおいて8ビットの量子化を上回ります。
我々のBNNは、2.8-7$times$8ビットより少ない実行サイクル、2.1-2.7$times$代替BNNの設計より少ないサイクルを約束している。
論文 参考訳(メタデータ) (2022-02-08T08:38:22Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - ROBIN: A Robust Optical Binary Neural Network Accelerator [3.8137985834223507]
ドメイン固有のニューラルネットワークアクセラレータは、エネルギー効率と推論性能の改善により注目されている。
我々は、ヘテロジニアスマイクロリング共振器光デバイスをインテリジェントに統合する、ROBINという新しい光ドメインBNN加速器を提案する。
我々の分析によると、RBBINは最もよく知られている光BNN加速器や多くの電子加速器よりも優れている。
論文 参考訳(メタデータ) (2021-07-12T16:00:32Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - FracBNN: Accurate and FPGA-Efficient Binary Neural Networks with
Fractional Activations [20.218382369944152]
binary neural network (bnns) は1ビットの重みとアクティベーションを持つ。
BNNはImageNetのような現実的なデータセットの精度がはるかに低い傾向にある。
本研究では、BNNの精度を大幅に向上させるために分数活性化を利用するFracBNNを提案する。
論文 参考訳(メタデータ) (2020-12-22T17:49:30Z) - FTBNN: Rethinking Non-linearity for 1-bit CNNs and Going Beyond [23.5996182207431]
本稿では,二項化畳み込み過程が,その誤差を最小限に抑えるために線形性を増大させ,BNNの識別能力を損なうことを示す。
我々は、その矛盾を修正するために、適切な非線形モジュールを再検討し、調整することで、最先端のパフォーマンスを実現する強力なベースラインに繋がる。
論文 参考訳(メタデータ) (2020-10-19T08:11:48Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。