論文の概要: Hardware Synthesis of State-Space Equations; Application to FPGA
Implementation of Shallow and Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2105.07131v1
- Date: Sat, 15 May 2021 04:00:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-18 14:33:47.087605
- Title: Hardware Synthesis of State-Space Equations; Application to FPGA
Implementation of Shallow and Deep Neural Networks
- Title(参考訳): 状態空間方程式のハードウェア合成 : 浅層・深層ニューラルネットワークのfpga実装への応用
- Authors: Amir-Hossein Kiamarzi, Pezhman Torabi, Reza Sameni
- Abstract要約: 本稿ではレジスタ転送レベル(RTL)に状態空間モデルを実装するための体系的アプローチを提案する。
提案する設計フローは,状態空間モデルの反復的性質と,状態空間の定式化と有限状態機械の類似性に基づく。
RTLコード生成ソフトウェアもオンラインで提供され、任意のサイズのNNの自動生成が簡単になる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nowadays, shallow and deep Neural Networks (NNs) have vast applications
including biomedical engineering, image processing, computer vision, and speech
recognition. Many researchers have developed hardware accelerators including
field-programmable gate arrays (FPGAs) for implementing high-performance and
energy efficient NNs. Apparently, the hardware architecture design process is
specific and time-consuming for each NN. Therefore, a systematic way to design,
implement and optimize NNs is highly demanded. The paper presents a systematic
approach to implement state-space models in register transfer level (RTL), with
special interest for NN implementation. The proposed design flow is based on
the iterative nature of state-space models and the analogy between state-space
formulations and finite-state machines. The method can be used in
linear/nonlinear and time-varying/time-invariant systems. It can also be used
to implement either intrinsically iterative systems (widely used in various
domains such as signal processing, numerical analysis, computer arithmetic, and
control engineering), or systems that could be rewritten in equivalent
iterative forms. The implementation of recurrent NNs such as long short-term
memory (LSTM) NNs, which have intrinsic state-space forms, are another major
applications for this framework. As a case study, it is shown that state-space
systems can be used for the systematic implementation and optimization of NNs
(as nonlinear and time-varying dynamic systems). An RTL code generating
software is also provided online, which simplifies the automatic generation of
NNs of arbitrary size.
- Abstract(参考訳): 現在、浅い深層ニューラルネットワーク(NN)には、バイオメディカルエンジニアリング、画像処理、コンピュータビジョン、音声認識など、膨大な応用がある。
多くの研究者が、高性能でエネルギー効率の良いNNを実装するためのフィールドプログラマブルゲートアレイ(FPGA)を含むハードウェアアクセラレータを開発した。
ハードウェアアーキテクチャ設計プロセスはNNごとに具体的かつ時間を要するようだ。
したがって、NNの設計、実装、最適化の体系的な方法が要求される。
本稿では,レジスタ転送レベル(rtl)における状態空間モデルの実装に関する体系的アプローチについて述べる。
提案する設計フローは,状態空間モデルの反復的性質と,状態空間の定式化と有限状態機械の類似性に基づく。
この方法は線形/非線形および時間変化/時間不変システムで使用できる。
また、本質的な反復システム(信号処理、数値解析、計算機演算、制御工学など様々な分野で広く使われている)や、等価な反復形式で書き換えられるシステムを実装するためにも使用できる。
長い短期記憶(LSTM)NNのような、本質的に状態空間を持つNNの実装は、このフレームワークのもう一つの主要な応用である。
ケーススタディとして、状態空間システムはNNの体系的実装と最適化(非線形および時間変化動的システムとして)に利用できることを示した。
RTLコード生成ソフトウェアもオンラインで提供され、任意のサイズのNNの自動生成が簡単になる。
関連論文リスト
- Scalable Mechanistic Neural Networks [52.28945097811129]
長い時間的シーケンスを含む科学機械学習応用のための拡張ニューラルネットワークフレームワークを提案する。
元のメカニスティックニューラルネットワーク (MNN) を再構成することにより、計算時間と空間の複雑さを、それぞれ、列長に関して立方体と二次体から線形へと減少させる。
大規模な実験により、S-MNNは元のMNNと精度で一致し、計算資源を大幅に削減した。
論文 参考訳(メタデータ) (2024-10-08T14:27:28Z) - NeuraLUT: Hiding Neural Network Density in Boolean Synthesizable Functions [2.7086888205833968]
Field-Programmable Gate Array (FPGA)アクセラレータは、レイテンシとリソースクリティカルなDeep Neural Network (DNN)推論タスクの処理に成功している。
本稿では、ニューロンの境界を緩和し、サブネットワーク全体を単一のLUTにマッピングすることを提案する。
提案手法は,既知の遅延クリティカルタスク,ジェットサブストラクチャタグ,古典的コンピュータビジョンタスク,MNISTを用いた桁分類で検証する。
論文 参考訳(メタデータ) (2024-02-29T16:10:21Z) - Latent Dynamics Networks (LDNets): learning the intrinsic dynamics of
spatio-temporal processes [2.3694122563610924]
ラテント・ダイナミクス・ネットワーク(LDNet)は、非マルコフ力学系の低次元固有力学を発見できる。
LDNetは軽量で訓練が容易で、時間外挿方式でも精度と一般化性に優れている。
論文 参考訳(メタデータ) (2023-04-28T21:11:13Z) - End-to-end codesign of Hessian-aware quantized neural networks for FPGAs
and ASICs [49.358119307844035]
我々は、共設計ニューラルネットワーク(NN)のトレーニングと実装のためのエンドツーエンドワークフローを開発する。
これにより、ハードウェアにおける効率的なNN実装が、非専門家に、単一のオープンソースワークフローでアクセスできるようになる。
大型ハドロン衝突型加速器(LHC)の40MHz衝突速度で動作しなければならないトリガー決定を含む粒子物理学アプリケーションにおけるワークフローを実演する。
シミュレーションLHC陽子-陽子衝突における高速粒子ジェット用混合精度NNを実装した。
論文 参考訳(メタデータ) (2023-04-13T18:00:01Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Fluid Batching: Exit-Aware Preemptive Serving of Early-Exit Neural
Networks on Edge NPUs [74.83613252825754]
スマートエコシステム(smart ecosystems)"は、スタンドアロンではなく、センセーションが同時に行われるように形成されています。
これはデバイス上の推論パラダイムを、エッジにニューラル処理ユニット(NPU)をデプロイする方向にシフトしている。
そこで本研究では,実行時のプリエンプションが到着・終了プロセスによってもたらされる動的性を考慮に入れた,新しい早期終了スケジューリングを提案する。
論文 参考訳(メタデータ) (2022-09-27T15:04:01Z) - E3NE: An End-to-End Framework for Accelerating Spiking Neural Networks
with Emerging Neural Encoding on FPGAs [6.047137174639418]
エンドツーエンドフレームワークのE3NEはFPGAのための効率的なSNN推論ロジックを生成する。
E3NEはハードウェアリソースの50%未満を消費し、20%の電力を消費する一方で、レイテンシを桁違いに低減する。
論文 参考訳(メタデータ) (2021-11-19T04:01:19Z) - Scaled-Time-Attention Robust Edge Network [2.4417312983418014]
本稿では,貯水池型ニューラルネットワークの遅延ループバージョンに基づいて,ニューラルネットワークの新たなファミリーを構築するための体系的なアプローチについて述べる。
結果として得られたアーキテクチャは、STARE(Scaled-Time-Attention Robust Edge)ネットワークと呼ばれ、超次元空間と非乗算演算を利用する。
我々は、STAREがパフォーマンスを改善し、実装の複雑さを低減した様々なアプリケーションに適用可能であることを実証した。
論文 参考訳(メタデータ) (2021-07-09T21:24:49Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Fully-parallel Convolutional Neural Network Hardware [0.7829352305480285]
本稿では,ハードウェアにArticial Neural Networks(ANN)を実装するための,新しい電力・面積効率アーキテクチャを提案する。
LENET-5として完全に並列なCNNを1つのFPGAに埋め込んでテストするのが初めてである。
論文 参考訳(メタデータ) (2020-06-22T17:19:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。