論文の概要: DFSynthesizer: Dataflow-based Synthesis of Spiking Neural Networks to
Neuromorphic Hardware
- arxiv url: http://arxiv.org/abs/2108.02023v1
- Date: Wed, 4 Aug 2021 12:49:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-19 22:32:19.662853
- Title: DFSynthesizer: Dataflow-based Synthesis of Spiking Neural Networks to
Neuromorphic Hardware
- Title(参考訳): DFS合成器:ニューロモーフィックハードウェアへのスパイキングニューラルネットワークの合成
- Authors: Shihao Song, Harry Chong, Adarsha Balaji, Anup Das, James Shackleford,
Nagarajan Kandasamy
- Abstract要約: Spiking Neural Networks(SNN)は、イベント駆動型アクティベーションとバイオインスパイアされた学習アルゴリズムを使用する、新たな計算モデルである。
DF Synthesizerは、SNNベースの機械学習プログラムをニューロモルフィックハードウェアに合成するためのエンドツーエンドフレームワークである。
- 参考スコア(独自算出の注目度): 4.273223677453178
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spiking Neural Networks (SNN) are an emerging computation model, which uses
event-driven activation and bio-inspired learning algorithms. SNN-based
machine-learning programs are typically executed on tile- based neuromorphic
hardware platforms, where each tile consists of a computation unit called
crossbar, which maps neurons and synapses of the program. However, synthesizing
such programs on an off-the-shelf neuromorphic hardware is challenging. This is
because of the inherent resource and latency limitations of the hardware, which
impact both model performance, e.g., accuracy, and hardware performance, e.g.,
throughput. We propose DFSynthesizer, an end-to-end framework for synthesizing
SNN-based machine learning programs to neuromorphic hardware. The proposed
framework works in four steps. First, it analyzes a machine-learning program
and generates SNN workload using representative data. Second, it partitions the
SNN workload and generates clusters that fit on crossbars of the target
neuromorphic hardware. Third, it exploits the rich semantics of Synchronous
Dataflow Graph (SDFG) to represent a clustered SNN program, allowing for
performance analysis in terms of key hardware constraints such as number of
crossbars, dimension of each crossbar, buffer space on tiles, and tile
communication bandwidth. Finally, it uses a novel scheduling algorithm to
execute clusters on crossbars of the hardware, guaranteeing hardware
performance. We evaluate DFSynthesizer with 10 commonly used machine-learning
programs. Our results demonstrate that DFSynthesizer provides much tighter
performance guarantee compared to current mapping approaches.
- Abstract(参考訳): Spiking Neural Networks(SNN)は、イベント駆動型アクティベーションとバイオインスパイアされた学習アルゴリズムを使用する、新たな計算モデルである。
SNNベースの機械学習プログラムは通常、タイルベースのニューロモルフィックハードウェアプラットフォーム上で実行され、各タイルはクロスバーと呼ばれる計算ユニットで構成され、プログラムのニューロンとシナプスをマッピングする。
しかし、そのようなプログラムを市販のニューロモルフィックハードウェアに合成することは困難である。
これは、ハードウェアの固有のリソースとレイテンシの制限のためで、モデルパフォーマンス、例えば、精度、ハードウェアパフォーマンス、例えば、スループットの両方に影響を与える。
我々は、SNNベースの機械学習プログラムをニューロモーフィックハードウェアに合成するためのエンドツーエンドフレームワークであるDFSynthesizerを提案する。
提案されたフレームワークは4つのステップで動作する。
まず、機械学習プログラムを分析し、代表データを用いてSNNワークロードを生成する。
次に、SNNのワークロードを分割し、ターゲットのニューロモルフィックハードウェアのクロスバーに適合するクラスタを生成する。
第3に、同期データフローグラフ(sdfg)の豊富なセマンティクスを利用してクラスタ化されたsnプログラムを表現し、クロスバーの数、各クロスバーの寸法、タイル上のバッファスペース、タイル通信帯域といった主要なハードウェア制約の観点からのパフォーマンス分析を可能にする。
最後に、新しいスケジューリングアルゴリズムを使用して、ハードウェアのクロスバー上でクラスタを実行し、ハードウェアのパフォーマンスを保証する。
DFSynthesizerを10種類の機械学習プログラムで評価した。
以上の結果からDFSynthesizerは,現在のマッピング手法に比べてはるかに高い性能保証を提供することが示された。
関連論文リスト
- AnalogNAS: A Neural Network Design Framework for Accurate Inference with
Analog In-Memory Computing [7.596833322764203]
エッジでの推論は低レイテンシ、コンパクト、電力効率のモデルを必要とする。
アナログ/混合信号インメモリコンピューティングハードウェアアクセラレータは、フォン・ノイマンアーキテクチャのメモリ壁を簡単に超越することができる。
本稿では,アナログインメモリコンピューティング(IMC)推論アクセラレータをターゲットとした,DNN(Deep Neural Network)自動設計のためのフレームワークであるAnalogNASを提案する。
論文 参考訳(メタデータ) (2023-05-17T07:39:14Z) - End-to-end codesign of Hessian-aware quantized neural networks for FPGAs
and ASICs [49.358119307844035]
我々は、共設計ニューラルネットワーク(NN)のトレーニングと実装のためのエンドツーエンドワークフローを開発する。
これにより、ハードウェアにおける効率的なNN実装が、非専門家に、単一のオープンソースワークフローでアクセスできるようになる。
大型ハドロン衝突型加速器(LHC)の40MHz衝突速度で動作しなければならないトリガー決定を含む粒子物理学アプリケーションにおけるワークフローを実演する。
シミュレーションLHC陽子-陽子衝突における高速粒子ジェット用混合精度NNを実装した。
論文 参考訳(メタデータ) (2023-04-13T18:00:01Z) - Biologically Plausible Learning on Neuromorphic Hardware Architectures [27.138481022472]
ニューロモルフィックコンピューティング(Neuromorphic Computing)は、アナログメモリの計算によってこの不均衡に直面している新興パラダイムである。
この研究は、異なる学習アルゴリズムがCompute-In-Memoryベースのハードウェアに与える影響を初めて比較し、その逆も行った。
論文 参考訳(メタデータ) (2022-12-29T15:10:59Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - SpikeSim: An end-to-end Compute-in-Memory Hardware Evaluation Tool for
Benchmarking Spiking Neural Networks [4.0300632886917]
SpikeSimは、IMCマップされたSNNの現実的なパフォーマンス、エネルギ、レイテンシ、領域評価を実現するツールである。
神経モジュールの面積の1.24倍と10倍に減少するSNNトポロジカルな変化と全エネルギー・遅延生成値を提案する。
論文 参考訳(メタデータ) (2022-10-24T01:07:17Z) - MAPLE-X: Latency Prediction with Explicit Microprocessor Prior Knowledge [87.41163540910854]
ディープニューラルネットワーク(DNN)レイテンシのキャラクタリゼーションは、時間を要するプロセスである。
ハードウェアデバイスの事前知識とDNNアーキテクチャのレイテンシを具体化し,MAPLEを拡張したMAPLE-Xを提案する。
論文 参考訳(メタデータ) (2022-05-25T11:08:20Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Fully-parallel Convolutional Neural Network Hardware [0.7829352305480285]
本稿では,ハードウェアにArticial Neural Networks(ANN)を実装するための,新しい電力・面積効率アーキテクチャを提案する。
LENET-5として完全に並列なCNNを1つのFPGAに埋め込んでテストするのが初めてである。
論文 参考訳(メタデータ) (2020-06-22T17:19:09Z) - Compiling Spiking Neural Networks to Neuromorphic Hardware [4.273223677453178]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上で実行される機械学習アプリケーションのエネルギー消費を減少させる。
本稿では,資源制約のあるニューロモルフィックハードウェア上でSNNを分析し,コンパイルする手法を提案する。
論文 参考訳(メタデータ) (2020-04-07T21:13:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。