論文の概要: Fast Algorithms for Spiking Neural Network Simulation with FPGAs
- arxiv url: http://arxiv.org/abs/2405.02019v1
- Date: Fri, 3 May 2024 11:39:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-06 13:05:54.626073
- Title: Fast Algorithms for Spiking Neural Network Simulation with FPGAs
- Title(参考訳): FPGAを用いたニューラルネットワークシミュレーションのための高速アルゴリズム
- Authors: Björn A. Lindqvist, Artur Podobas,
- Abstract要約: 我々は、ハイエンドフィールドプログラマブルゲートアレイ(FPGA)のためのPotjans-Diesmann大脳皮質微小回路のためのスパイキングニューラルネットワークシミュレータ(SNN)を作成する。
我々の最高のシミュレーターは、回路をリアルタイムよりも25%高速にシミュレートし、シナプスイベントあたり21nJ未満が必要であり、オンチップメモリによってボトルネックされる。
この結果は、単一のハードウェアアクセラレータ上で回路をシミュレートする最初のものである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Using OpenCL-based high-level synthesis, we create a number of spiking neural network (SNN) simulators for the Potjans-Diesmann cortical microcircuit for a high-end Field-Programmable Gate Array (FPGA). Our best simulators simulate the circuit 25\% faster than real-time, require less than 21 nJ per synaptic event, and are bottle-necked by the device's on-chip memory. Speed-wise they compare favorably to the state-of-the-art GPU-based simulators and their energy usage is lower than any other published result. This result is the first for simulating the circuit on a single hardware accelerator. We also extensively analyze the techniques and algorithms we implement our simulators with, many of which can be realized on other types of hardware. Thus, this article is of interest to any researcher or practitioner interested in efficient SNN simulation, whether they target FPGAs or not.
- Abstract(参考訳): 高速ゲートアレイ(FPGA)のための,OpenCLベースの高レベル合成を用いて,ポトジャン・ディースマン大脳皮質マイクロサーキットのための多数のスパイキングニューラルネットワークシミュレータ(SNN)を作成する。
我々の最高のシミュレーターは、回路をリアルタイムよりも25\%高速にシミュレートし、シナプスイベントあたり21nJ未満が必要であり、オンチップメモリによってボトルネックされる。
速度は最先端のGPUベースのシミュレータと良好に比較でき、そのエネルギー消費は他のどの結果よりも低い。
この結果は、単一のハードウェアアクセラレータ上で回路をシミュレートする最初のものである。
また、シミュレータを実装する技術やアルゴリズムを広範囲に分析し、その多くが他のタイプのハードウェアで実現できます。
したがって,本論文は,FPGAを対象とするか否かに関わらず,効率的なSNNシミュレーションに関心のある研究者や実践者にとって興味深いものである。
関連論文リスト
- Efficient Quantum Circuit Simulation by Tensor Network Methods on Modern
GPUs [12.741817108411214]
量子ハードウェアでは、一次シミュレーション法は状態ベクトルとテンソルネットワークに基づいている。
量子ビットと量子ゲートの数が増加するにつれて、ヒルベルト空間の圧倒的な大きさと広範な絡み合いにより、従来の状態ベクトルベースの量子回路シミュレーション手法は不十分であることが証明される。
本研究では,計算効率と精度の2つの側面から最適化手法を提案する。
論文 参考訳(メタデータ) (2023-10-06T02:24:05Z) - Tricking AI chips into Simulating the Human Brain: A Detailed
Performance Analysis [0.5354801701968198]
脳シミュレーションでは、複数の最先端AIチップ(Graphcore IPU、GroqChip、劣悪なCoreを持つNvidia GPU、Google TPU)を評価した。
性能解析の結果,シミュレーション問題はGPUとTPUアーキテクチャに極めてよく対応していることがわかった。
GroqChipは、小さなネットワークにおいて両方のプラットフォームより優れているが、精度の低い浮動小数点演算を実装しているため、脳シミュレーションではまだ利用できない。
論文 参考訳(メタデータ) (2023-01-31T13:51:37Z) - Towards real-time and energy efficient Siamese tracking -- a
hardware-software approach [0.0]
我々は、よく知られた完全接続型シームズトラッカー(SiamFC)のハードウェア・ソフトウェア実装を提案する。
我々は、FINNアクセラレーターのための量子化シームズネットワークを開発し、アルゴリズム・加速器の共設計を用いて設計空間探索を行った。
我々のネットワークでは、Zynq UltraScale+MPSoC ZCU104のプログラム可能な論理部で動作し、約50フレーム/秒の処理を、その浮動小数点演算と同等の精度で達成した。
論文 参考訳(メタデータ) (2022-05-21T18:31:07Z) - Parallel Simulation of Quantum Networks with Distributed Quantum State
Management [56.24769206561207]
我々は、量子ネットワークの並列シミュレーションの要件を特定し、最初の並列離散事象量子ネットワークシミュレータを開発する。
コントリビューションには、複数のプロセスに分散した共有量子情報を維持する量子状態マネージャの設計と開発が含まれています。
既存のシーケンシャルバージョンと並行してオープンソースツールとして,並列SeQUeNCeシミュレータをリリースする。
論文 参考訳(メタデータ) (2021-11-06T16:51:17Z) - Accelerating Training and Inference of Graph Neural Networks with Fast
Sampling and Pipelining [58.10436813430554]
グラフニューラルネットワーク(GNN)のミニバッチトレーニングには、多くの計算とデータ移動が必要である。
我々は,分散マルチGPU環境において,近傍サンプリングを用いたミニバッチトレーニングを行うことを支持する。
本稿では,これらのボトルネックを緩和する一連の改良点について述べる。
また,サンプリングによる推論を支援する実験分析を行い,試験精度が実質的に損なわれていないことを示す。
論文 参考訳(メタデータ) (2021-10-16T02:41:35Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - VersaGNN: a Versatile accelerator for Graph neural networks [81.1667080640009]
我々は,超効率的なサイストリックアレイベースの多用途ハードウェアアクセラレータである textitVersaGNN を提案する。
textitVersaGNNは平均3712$times$ speedup with 1301.25$times$ energy reduction on CPU、35.4$times$ speedup with 17.66$times$ energy reduction on GPUを達成している。
論文 参考訳(メタデータ) (2021-05-04T04:10:48Z) - HOBFLOPS CNNs: Hardware Optimized Bitslice-Parallel Floating-Point
Operations for Convolutional Neural Networks [0.2148535041822524]
畳み込みニューラルネットワーク(CNN)は通常16ビットまたは32ビット浮動小数点(FP)を用いて訓練される
低精度浮動小数点 (FP) は推論に非常に有効である。
既存のプロセッサは、通常カスタム精度FPをサポートしない。
ハードウェア最適化ビットスライス並列浮動小数点演算子(HOBFLOPS)を提案する。
論文 参考訳(メタデータ) (2020-07-11T00:37:35Z) - One-step regression and classification with crosspoint resistive memory
arrays [62.997667081978825]
高速で低エネルギーのコンピュータは、エッジでリアルタイム人工知能を実現するために要求されている。
ワンステップ学習は、ボストンの住宅のコスト予測と、MNIST桁認識のための2層ニューラルネットワークのトレーニングによって支援される。
結果は、クロスポイントアレイ内の物理計算、並列計算、アナログ計算のおかげで、1つの計算ステップで得られる。
論文 参考訳(メタデータ) (2020-05-05T08:00:07Z) - CSM-NN: Current Source Model Based Logic Circuit Simulation -- A Neural
Network Approach [5.365198933008246]
CSM-NNは、最適化されたニューラルネットワーク構造と処理アルゴリズムを備えたスケーラブルなシミュレーションフレームワークである。
実験によると、CSM-NNはCPU上で動作する最先端のソースモデルベースのシミュレータと比較して、シミュレーション時間を最大6倍に短縮する。
CSM-NNはまた、HSPICEと比較して2%以下の誤差で高い精度のレベルを提供する。
論文 参考訳(メタデータ) (2020-02-13T00:29:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。