論文の概要: SNNAX -- Spiking Neural Networks in JAX
- arxiv url: http://arxiv.org/abs/2409.02842v1
- Date: Wed, 4 Sep 2024 16:14:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-05 17:11:35.166129
- Title: SNNAX -- Spiking Neural Networks in JAX
- Title(参考訳): SNNAX -- JAXでニューラルネットワークをスパイする
- Authors: Jamie Lohoff, Jan Finkbeiner, Emre Neftci,
- Abstract要約: スパイキングニューラルネットワーク(SNN)シミュレータは、生物学的にインスパイアされたモデルとニューロモルフィックなハードウェアアーキテクチャをプロトタイプするために必要なツールである。
我々は、PyTorchのような直感性とJAXのような実行速度で、このようなモデルをシミュレートし、訓練するためのJAXベースのフレームワークSNNAXを提案する。
- 参考スコア(独自算出の注目度): 0.8321953606016751
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Spiking Neural Networks (SNNs) simulators are essential tools to prototype biologically inspired models and neuromorphic hardware architectures and predict their performance. For such a tool, ease of use and flexibility are critical, but so is simulation speed especially given the complexity inherent to simulating SNN. Here, we present SNNAX, a JAX-based framework for simulating and training such models with PyTorch-like intuitiveness and JAX-like execution speed. SNNAX models are easily extended and customized to fit the desired model specifications and target neuromorphic hardware. Additionally, SNNAX offers key features for optimizing the training and deployment of SNNs such as flexible automatic differentiation and just-in-time compilation. We evaluate and compare SNNAX to other commonly used machine learning (ML) frameworks used for programming SNNs. We provide key performance metrics, best practices, documented examples for simulating SNNs in SNNAX, and implement several benchmarks used in the literature.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)シミュレータは、生物学的にインスパイアされたモデルとニューロモルフィックなハードウェアアーキテクチャをプロトタイプ化し、その性能を予測するために必須のツールである。
このようなツールにとって、使いやすさと柔軟性は重要だが、SNNのシミュレーションに固有の複雑さを考えると、シミュレーションのスピードも重要だ。
本稿では、PyTorchのような直感性とJAXライクな実行速度でモデルをシミュレートし、訓練するためのJAXベースのフレームワークであるSNNAXについて述べる。
SNNAXモデルは、望まれるモデル仕様とターゲットニューロモルフィックハードウェアに適合するように、容易に拡張およびカスタマイズできる。
さらにSNNAXは、フレキシブル自動微分やジャストインタイムコンパイルなど、SNNのトレーニングとデプロイを最適化するための重要な機能を提供する。
我々はSNNAXをSNNのプログラミングに使用される他の機械学習(ML)フレームワークと比較した。
SNNAXでSNNをシミュレートするための重要なパフォーマンス指標、ベストプラクティス、文書化された例を提供し、文献で使用されるいくつかのベンチマークを実装します。
関連論文リスト
- Scalable Mechanistic Neural Networks [52.28945097811129]
長い時間的シーケンスを含む科学機械学習応用のための拡張ニューラルネットワークフレームワークを提案する。
元のメカニスティックニューラルネットワーク (MNN) を再構成することにより、計算時間と空間の複雑さを、それぞれ、列長に関して立方体と二次体から線形へと減少させる。
大規模な実験により、S-MNNは元のMNNと精度で一致し、計算資源を大幅に削減した。
論文 参考訳(メタデータ) (2024-10-08T14:27:28Z) - Towards Scalable GPU-Accelerated SNN Training via Temporal Fusion [8.995682796140429]
スパイキングニューラルネットワーク(SNN)は、人工知能の変革的発展として出現する。
SNNは、特別なスパース計算ハードウェア上で有望な効率を示すが、その実践訓練は、しばしば従来のGPUに依存している。
本稿では,GPUプラットフォーム上でのSNNの伝搬ダイナミクスを高速化する新しい時間融合法を提案する。
論文 参考訳(メタデータ) (2024-08-01T04:41:56Z) - Spyx: A Library for Just-In-Time Compiled Optimization of Spiking Neural
Networks [0.08965418284317034]
Spiking Neural Networks(SNN)は、小さくて低消費電力なハードウェアフットプリントによるエネルギー効率の向上を提供する。
本稿では、JAXで設計された新しい軽量SNNシミュレーションおよび最適化ライブラリSpyxを紹介する。
論文 参考訳(メタデータ) (2024-02-29T09:46:44Z) - SparseProp: Efficient Event-Based Simulation and Training of Sparse
Recurrent Spiking Neural Networks [4.532517021515834]
Spiking Neural Networks(SNN)は、生物学的にインスパイアされたモデルであり、アクションポテンシャルのストリームで情報を処理できる。
SparsePropはスパースSNNをシミュレートし、訓練するための新しいイベントベースアルゴリズムである。
論文 参考訳(メタデータ) (2023-12-28T18:48:10Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Rethinking Pretraining as a Bridge from ANNs to SNNs [13.984523794353477]
スパイキングニューラルネットワーク(SNN)は、特有の特徴を持つ脳にインスパイアされた典型的なモデルとして知られている。
高い精度のモデルを得る方法は、常にSNNの分野における主要な課題である。
論文 参考訳(メタデータ) (2022-03-02T14:59:57Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - Fully Spiking Variational Autoencoder [66.58310094608002]
スパイキングニューラルネットワーク(SNN)は、超高速で超低エネルギー消費のニューロモルフィックデバイス上で動作することができる。
本研究では,SNNを用いた可変オートエンコーダ(VAE)を構築し,画像生成を実現する。
論文 参考訳(メタデータ) (2021-09-26T06:10:14Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Compiling Spiking Neural Networks to Neuromorphic Hardware [4.273223677453178]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上で実行される機械学習アプリケーションのエネルギー消費を減少させる。
本稿では,資源制約のあるニューロモルフィックハードウェア上でSNNを分析し,コンパイルする手法を提案する。
論文 参考訳(メタデータ) (2020-04-07T21:13:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。