論文の概要: Fully-parallel Convolutional Neural Network Hardware
- arxiv url: http://arxiv.org/abs/2006.12439v1
- Date: Mon, 22 Jun 2020 17:19:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 05:30:32.313602
- Title: Fully-parallel Convolutional Neural Network Hardware
- Title(参考訳): 完全並列畳み込みニューラルネットワークハードウェア
- Authors: Christiam F. Frasser, Pablo Linares-Serrano, V. Canals, Miquel Roca,
T. Serrano-Gotarredona, Josep L. Rossello
- Abstract要約: 本稿では,ハードウェアにArticial Neural Networks(ANN)を実装するための,新しい電力・面積効率アーキテクチャを提案する。
LENET-5として完全に並列なCNNを1つのFPGAに埋め込んでテストするのが初めてである。
- 参考スコア(独自算出の注目度): 0.7829352305480285
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A new trans-disciplinary knowledge area, Edge Artificial Intelligence or Edge
Intelligence, is beginning to receive a tremendous amount of interest from the
machine learning community due to the ever increasing popularization of the
Internet of Things (IoT). Unfortunately, the incorporation of AI
characteristics to edge computing devices presents the drawbacks of being power
and area hungry for typical machine learning techniques such as Convolutional
Neural Networks (CNN). In this work, we propose a new power-and-area-efficient
architecture for implementing Articial Neural Networks (ANNs) in hardware,
based on the exploitation of correlation phenomenon in Stochastic Computing
(SC) systems. The architecture purposed can solve the difficult implementation
challenges that SC presents for CNN applications, such as the high resources
used in binary-tostochastic conversion, the inaccuracy produced by undesired
correlation between signals, and the stochastic maximum function
implementation. Compared with traditional binary logic implementations,
experimental results showed an improvement of 19.6x and 6.3x in terms of speed
performance and energy efficiency, for the FPGA implementation. We have also
realized a full VLSI implementation of the proposed SC-CNN architecture
demonstrating that our optimization achieve a 18x area reduction over previous
SC-DNN architecture VLSI implementation in a comparable technological node. For
the first time, a fully-parallel CNN as LENET-5 is embedded and tested in a
single FPGA, showing the benefits of using stochastic computing for embedded
applications, in contrast to traditional binary logic implementations.
- Abstract(参考訳): 新たな学際的知識領域であるエッジ人工知能(Edge Artificial Intelligence)あるいはエッジ人工知能(Edge Intelligence)は、IoT(Internet of Things)の普及により、マシンラーニングコミュニティから大きな関心を集め始めている。
残念なことに、エッジコンピューティングデバイスにAI特性を組み込むことは、畳み込みニューラルネットワーク(CNN)のような一般的な機械学習技術に飢えているパワーと領域の欠点を示す。
本研究では,Stochastic Computing(SC)システムにおける相関現象の活用に基づいて,ハードウェアにArticial Neural Networks(ANN)を実装するための,新しいパワー&エリア効率アーキテクチャを提案する。
このアーキテクチャは、SCがCNNアプリケーションに提示する難易度の高い実装課題、例えばバイナリ-確率変換に使用する高リソース、信号間の望ましくない相関による不正確さ、確率的最大関数の実装などを解決する。
従来のバイナリ論理の実装と比較すると、FPGAの実装では速度性能とエネルギー効率の面で19.6xと6.3xの改善が見られた。
また,提案したSC-CNNアーキテクチャの完全なVLSI実装を実現し,従来のSC-DNNアーキテクチャのVLSI実装よりも18倍の面積削減を実現した。
LENET-5として完全に並列なCNNを1つのFPGAに埋め込んでテストし、従来のバイナリロジック実装とは対照的に、組み込みアプリケーションに確率計算を使用することの利点を示している。
関連論文リスト
- Energy-Aware FPGA Implementation of Spiking Neural Network with LIF Neurons [0.5243460995467893]
スパイキングニューラルネットワーク(SNN)は、TinyMLの最先端ソリューションとして際立っている。
本稿では,第1次Leaky Integrate-and-Fire(LIF)ニューロンモデルに基づく新しいSNNアーキテクチャを提案する。
ハードウェアフレンドリーなLIF設計も提案され、Xilinx Artix-7 FPGA上で実装されている。
論文 参考訳(メタデータ) (2024-11-03T16:42:10Z) - TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - Exploiting On-chip Heterogeneity of Versal Architecture for GNN
Inference Acceleration [0.5249805590164902]
グラフニューラルネットワーク(GNN)は、ソーシャルネットワーク分析やバイオインフォマティクスなど、多くの機械学習(ML)アプリケーションに革命をもたらした。
我々は,AMD Versal ACAPアーキテクチャの不均一な計算能力を活用し,GNN推論を高速化する。
グラフ畳み込みネットワーク(GCN)では,同一のACAPデバイス上でのみPLを用いた設計と比較して3.9-96.7倍の高速化を実現している。
論文 参考訳(メタデータ) (2023-08-04T23:57:55Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - FPGA-based AI Smart NICs for Scalable Distributed AI Training Systems [62.20308752994373]
我々は、フィールドプログラマブルゲートアレイ(FPGA)を用いた分散AI訓練システムのための新しいスマートネットワークインタフェースカード(NIC)を提案する。
提案するFPGAベースのAIスマートNICは,従来のNICを用いたベースラインシステムと比較して,6ノードで1.6倍,32ノードで2.5倍の性能向上が期待できる。
論文 参考訳(メタデータ) (2022-04-22T21:57:00Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Hybrid SNN-ANN: Energy-Efficient Classification and Object Detection for
Event-Based Vision [64.71260357476602]
イベントベースの視覚センサは、画像フレームではなく、イベントストリームの局所的な画素単位の明るさ変化を符号化する。
イベントベースセンサーによる物体認識の最近の進歩は、ディープニューラルネットワークの変換によるものである。
本稿では、イベントベースのパターン認識とオブジェクト検出のためのディープニューラルネットワークのエンドツーエンドトレーニングのためのハイブリッドアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-06T23:45:58Z) - E3NE: An End-to-End Framework for Accelerating Spiking Neural Networks
with Emerging Neural Encoding on FPGAs [6.047137174639418]
エンドツーエンドフレームワークのE3NEはFPGAのための効率的なSNN推論ロジックを生成する。
E3NEはハードウェアリソースの50%未満を消費し、20%の電力を消費する一方で、レイテンシを桁違いに低減する。
論文 参考訳(メタデータ) (2021-11-19T04:01:19Z) - Scaled-Time-Attention Robust Edge Network [2.4417312983418014]
本稿では,貯水池型ニューラルネットワークの遅延ループバージョンに基づいて,ニューラルネットワークの新たなファミリーを構築するための体系的なアプローチについて述べる。
結果として得られたアーキテクチャは、STARE(Scaled-Time-Attention Robust Edge)ネットワークと呼ばれ、超次元空間と非乗算演算を利用する。
我々は、STAREがパフォーマンスを改善し、実装の複雑さを低減した様々なアプリケーションに適用可能であることを実証した。
論文 参考訳(メタデータ) (2021-07-09T21:24:49Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Design Challenges of Neural Network Acceleration Using Stochastic
Computing [0.0]
本報告では,モノのインターネット(IoT)のための2つの提案されたNN設計を評価し,比較する。
MNIST-5 NN モデルを実行する場合,BISC は他のアーキテクチャよりも優れていることがわかった。
解析とシミュレーション実験により,このアーキテクチャは50倍,5.7倍,7.8倍,1.8倍の電力を消費することがわかった。
論文 参考訳(メタデータ) (2020-06-08T16:06:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。