論文の概要: Binary Complex Neural Network Acceleration on FPGA
- arxiv url: http://arxiv.org/abs/2108.04811v1
- Date: Tue, 10 Aug 2021 17:53:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-11 14:18:15.222147
- Title: Binary Complex Neural Network Acceleration on FPGA
- Title(参考訳): FPGA上のバイナリ複雑ニューラルネットワーク高速化
- Authors: Hongwu Peng, Shanglin Zhou, Scott Weitze, Jiaxin Li, Sahidul Islam,
Tong Geng, Ang Li, Wei Zhang, Minghu Song, Mimi Xie, Hang Liu, and Caiwen
Ding
- Abstract要約: Binarized Complex Neural Network (BCNN) は、複雑なデータをリアルタイムに分類する大きな可能性を示している。
我々は、エッジデバイス上で5000フレーム/秒の推論スループットを提供できるBCNNの構造的プルーニングベースのアクセラレーションを提案する。
- 参考スコア(独自算出の注目度): 19.38270650475235
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Being able to learn from complex data with phase information is imperative
for many signal processing applications. Today' s real-valued deep neural
networks (DNNs) have shown efficiency in latent information analysis but fall
short when applied to the complex domain. Deep complex networks (DCN), in
contrast, can learn from complex data, but have high computational costs;
therefore, they cannot satisfy the instant decision-making requirements of many
deployable systems dealing with short observations or short signal bursts.
Recent, Binarized Complex Neural Network (BCNN), which integrates DCNs with
binarized neural networks (BNN), shows great potential in classifying complex
data in real-time. In this paper, we propose a structural pruning based
accelerator of BCNN, which is able to provide more than 5000 frames/s inference
throughput on edge devices. The high performance comes from both the algorithm
and hardware sides. On the algorithm side, we conduct structural pruning to the
original BCNN models and obtain 20 $\times$ pruning rates with negligible
accuracy loss; on the hardware side, we propose a novel 2D convolution
operation accelerator for the binary complex neural network. Experimental
results show that the proposed design works with over 90% utilization and is
able to achieve the inference throughput of 5882 frames/s and 4938 frames/s for
complex NIN-Net and ResNet-18 using CIFAR-10 dataset and Alveo U280 Board.
- Abstract(参考訳): 位相情報を持つ複雑なデータから学習できることは多くの信号処理アプリケーションにとって必須である。
今日のs real-valued deep neural networks (dnns) は潜時情報分析において効率性を示しているが、複雑な領域に適用すると不足する。
対照的に、ディープ・コンプレックス・ネットワーク(DCN)は複雑なデータから学習することができるが、計算コストが高いため、短い観測や短い信号バーストを扱う多くのデプロイ可能なシステムの即時決定要件を満たすことはできない。
近年、DCNと二項化ニューラルネットワーク(BNN)を統合した二項化ニューラルネットワーク(BCNN)は、複雑なデータをリアルタイムに分類する大きな可能性を示している。
本稿では,エッジデバイス上で5,000フレーム/s以上のスループットを実現することができる構造的プルーニングベースのbcnn加速器を提案する。
ハイパフォーマンスは、アルゴリズムとハードウェアの両方からもたらされる。
アルゴリズム側では、元のBCNNモデルに対して構造的プルーニングを行い、信頼できない精度で20$\times$プルーニングレートを得る。
実験の結果,提案手法は90%以上の利用率で動作し,複雑な nin-net と resnet-18 に対して cifar-10 データセットと alveo u280 ボードを用いた 5882 フレーム/s と 4938 フレーム/s の推論スループットを実現することができた。
関連論文リスト
- Brain-on-Switch: Towards Advanced Intelligent Network Data Plane via NN-Driven Traffic Analysis at Line-Speed [33.455302442142994]
プログラム可能なネットワークは、ラインスピードで学習に基づくトラフィック分析を実現するIntelligent Network Data Plane (INDP) に大きな研究を巻き起こした。
INDPの以前の技術は、データプレーンにツリー/フォレストモデルをデプロイすることに焦点を当てていた。
本稿では,ニューラルネットワーク(NN)によるトラフィック解析を回線速度で実現することにより,INDPの境界を押し上げるBoSを提案する。
論文 参考訳(メタデータ) (2024-03-17T04:59:30Z) - Training Spiking Neural Networks with Local Tandem Learning [96.32026780517097]
スパイキングニューラルネットワーク(SNN)は、前者よりも生物学的に可塑性でエネルギー効率が高いことが示されている。
本稿では,局所タンデム学習(Local Tandem Learning, LTL)と呼ばれる一般化学習規則を提案する。
CIFAR-10データセット上の5つのトレーニングエポック内に高速なネットワーク収束を示すとともに,計算複雑性が低い。
論文 参考訳(メタデータ) (2022-10-10T10:05:00Z) - Ultra-compact Binary Neural Networks for Human Activity Recognition on
RISC-V Processors [10.195581493173643]
HAR(Human Activity Recognition)は、多くのモバイルアプリケーションにおいて、関連する推論タスクである。
本稿では、ディープニューラルネットワークに基づくHARの新たな実装と、BNN(Binary Neural Networks)の高精度な実装を提案する。
BNNはビット演算をビット演算に置き換えたことにより、メモリフットプリントが非常に小さく、推論の複雑さが低い。
論文 参考訳(メタデータ) (2022-05-25T13:52:35Z) - Object Detection with Spiking Neural Networks on Automotive Event Data [0.0]
我々は、イベントカメラから直接スパイキングニューラルネットワーク(SNN)を訓練し、高速で効率的な自動車組込みアプリケーションを設計することを提案する。
本稿では,2つの自動車イベントデータセットの実験を行い,スパイクニューラルネットワークのための最先端の分類結果を確立した。
論文 参考訳(メタデータ) (2022-05-09T14:39:47Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Training Graph Neural Networks with 1000 Layers [133.84813995275988]
我々は、GNNのメモリとパラメータ効率を向上させるために、可逆接続、グループ畳み込み、重み付け、平衡モデルについて検討する。
我々の知る限りでは、RevGNN-Deepは文学で最も深いGNNである。
論文 参考訳(メタデータ) (2021-06-14T15:03:00Z) - BCNN: Binary Complex Neural Network [16.82755328827758]
バイナリニューラルネットワーク(BNN)は、リソース制限のあるハードウェアを備えたエッジサイドアプリケーションにおいて、大きな可能性を秘めている。
本稿では,BNNに複雑な表現を導入し,バイナリ・コンプレックス・ニューラルネットワークを提案する。
BCNNは、複雑な表現を通じて学習能力を強化し、複雑な値の入力データに適用性を拡張することにより、BNNを改善している。
論文 参考訳(メタデータ) (2021-03-28T03:35:24Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Constructing Deep Neural Networks with a Priori Knowledge of Wireless
Tasks [37.060397377445504]
無線タスクに広く存在する2種類の置換不変性は、モデルパラメータの数を減らすために利用することができる。
可変DNN (permutation invariant DNN) と呼ばれる特性を満たす入出力関係を持つDNNの特殊構造を求める。
予測資源配分と干渉調整を例として,教師なし・教師なし学習による最適政策学習にPINNをいかに活用できるかを示す。
論文 参考訳(メタデータ) (2020-01-29T08:54:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。