論文の概要: jaxsnn: Event-driven Gradient Estimation for Analog Neuromorphic
Hardware
- arxiv url: http://arxiv.org/abs/2401.16841v1
- Date: Tue, 30 Jan 2024 09:27:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-31 15:44:43.839345
- Title: jaxsnn: Event-driven Gradient Estimation for Analog Neuromorphic
Hardware
- Title(参考訳): jaxsnn: アナログニューロモーフィックハードウェアのためのイベント駆動型勾配推定
- Authors: Eric M\"uller, Moritz Althaus, Elias Arnold, Philipp Spilger,
Christian Pehle, Johannes Schemmel
- Abstract要約: JAX上に構築された新しいライブラリ(jaxsnn)は、従来の機械学習フレームワークから離れています。
本ライブラリは,時間連続型ニューロモルフィックバックエンドとの互換性に着目し,スパイクニューラルネットワークと勾配推定のシミュレーションを容易にする。
- 参考スコア(独自算出の注目度): 0.844044431480226
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional neuromorphic hardware architectures rely on event-driven
computation, where the asynchronous transmission of events, such as spikes,
triggers local computations within synapses and neurons. While machine learning
frameworks are commonly used for gradient-based training, their emphasis on
dense data structures poses challenges for processing asynchronous data such as
spike trains. This problem is particularly pronounced for typical tensor data
structures. In this context, we present a novel library (jaxsnn) built on top
of JAX, that departs from conventional machine learning frameworks by providing
flexibility in the data structures used and the handling of time, while
maintaining Autograd functionality and composability. Our library facilitates
the simulation of spiking neural networks and gradient estimation, with a focus
on compatibility with time-continuous neuromorphic backends, such as the
BrainScaleS-2 system, during the forward pass. This approach opens avenues for
more efficient and flexible training of spiking neural networks, bridging the
gap between traditional neuromorphic architectures and contemporary machine
learning frameworks.
- Abstract(参考訳): 従来のニューロモルフィックハードウェアアーキテクチャは、スパイクのようなイベントの非同期送信がシナプスやニューロン内の局所的な計算をトリガーするイベント駆動計算に依存している。
マシンラーニングフレームワークは勾配ベースのトレーニングに一般的に使用されるが、スパイクトレインのような非同期データを処理する上では、密集したデータ構造に重点を置くことが課題となる。
この問題は典型的なテンソルデータ構造では特に顕著である。
この文脈では、JAX上に構築された新しいライブラリ(jaxsnn)を提示します。これは、Autograd機能とコンポーザビリティを維持しながら、使用されるデータ構造と時間の処理に柔軟性を提供することによって、従来の機械学習フレームワークから離れます。
本ライブラリは,前部通過時のBrainScaleS-2システムなどの時間連続型ニューロモルフィックバックエンドとの互換性に着目し,スパイクニューラルネットワークと勾配推定のシミュレーションを容易にする。
このアプローチは、スパイクニューラルネットワークのより効率的で柔軟なトレーニングのための道を開き、従来のニューロモルフィックアーキテクチャと現代の機械学習フレームワークのギャップを埋める。
関連論文リスト
- A Realistic Simulation Framework for Analog/Digital Neuromorphic Architectures [73.65190161312555]
ARCANAは、混合信号ニューロモルフィック回路の特性を考慮に入れたスパイクニューラルネットワークシミュレータである。
その結果,ソフトウェアでトレーニングしたスパイクニューラルネットワークの挙動を,信頼性の高い推定結果として提示した。
論文 参考訳(メタデータ) (2024-09-23T11:16:46Z) - Lipschitz constant estimation for general neural network architectures using control tools [0.05120567378386613]
本稿では,半定値プログラミングを用いた一般ニューラルネットワークアーキテクチャのリプシッツ定数の推定について述べる。
我々はニューラルネットワークを時間変動力学系と解釈し、そこでは、$k$th層は、時間で$k$の力学に対応する。
論文 参考訳(メタデータ) (2024-05-02T09:38:16Z) - Neural Koopman prior for data assimilation [7.875955593012905]
ニューラルネットワークアーキテクチャを使って、潜在空間に動的システムを埋め込む。
本研究では,このようなモデルを長期の継続的再構築のために訓練する手法を提案する。
また,変動データ同化手法の先行として,訓練された動的モデルの有望な利用を示すとともに,自己教師型学習の可能性も示された。
論文 参考訳(メタデータ) (2023-09-11T09:04:36Z) - Neuromorphic Computing with AER using Time-to-Event-Margin Propagation [7.730429080477441]
我々は、AERプロトコルに固有の遅延、トリガー、ソートといった因果的時間的プリミティブが、スケーラブルなニューロモルフィックコンピューティングにどのように活用できるかを示す。
提案したTEMPベースのAERアーキテクチャは、完全に非同期であり、メモリとコンピューティングの相互接続遅延に依存している。
概念実証として、トレーニングされたTEMPベースの畳み込みニューラルネットワーク(CNN)が、MNISTデータセット上で99%以上の精度を示すことを示す。
論文 参考訳(メタデータ) (2023-04-27T02:01:54Z) - ETLP: Event-based Three-factor Local Plasticity for online learning with
neuromorphic hardware [105.54048699217668]
イベントベース3要素局所塑性(ETLP)の計算複雑性に明らかな優位性を有する精度の競争性能を示す。
また, 局所的可塑性を用いた場合, スパイキングニューロンの閾値適応, 繰り返しトポロジーは, 時間的構造が豊富な時間的パターンを学習するために必要であることを示した。
論文 参考訳(メタデータ) (2023-01-19T19:45:42Z) - Convolution, aggregation and attention based deep neural networks for
accelerating simulations in mechanics [1.0154623955833253]
固体の変形を効率的に学習するための3種類のニューラルネットワークアーキテクチャを実証する。
最初の2つは、最近提案されたCNN U-NETとMagNETフレームワークに基づいており、メッシュベースのデータで学習する上で有望なパフォーマンスを示している。
第3のアーキテクチャであるPerceiver IOは、注目に基づくニューラルネットワークのファミリに属する、非常に最近のアーキテクチャである。
論文 参考訳(メタデータ) (2022-12-01T13:10:56Z) - Physics-Inspired Temporal Learning of Quadrotor Dynamics for Accurate
Model Predictive Trajectory Tracking [76.27433308688592]
クオーロタのシステムダイナミクスを正確にモデル化することは、アジャイル、安全、安定したナビゲーションを保証する上で非常に重要です。
本稿では,ロボットの経験から,四重項系の力学を純粋に学習するための新しい物理インスパイアされた時間畳み込みネットワーク(PI-TCN)を提案する。
提案手法は,スパース時間的畳み込みと高密度フィードフォワード接続の表現力を組み合わせて,正確なシステム予測を行う。
論文 参考訳(メタデータ) (2022-06-07T13:51:35Z) - Reservoir Memory Machines as Neural Computers [70.5993855765376]
微分可能なニューラルネットワークは、干渉することなく明示的なメモリで人工ニューラルネットワークを拡張する。
我々は、非常に効率的に訓練できるモデルを用いて、微分可能なニューラルネットワークの計算能力を実現する。
論文 参考訳(メタデータ) (2020-09-14T12:01:30Z) - One-step regression and classification with crosspoint resistive memory
arrays [62.997667081978825]
高速で低エネルギーのコンピュータは、エッジでリアルタイム人工知能を実現するために要求されている。
ワンステップ学習は、ボストンの住宅のコスト予測と、MNIST桁認識のための2層ニューラルネットワークのトレーニングによって支援される。
結果は、クロスポイントアレイ内の物理計算、並列計算、アナログ計算のおかげで、1つの計算ステップで得られる。
論文 参考訳(メタデータ) (2020-05-05T08:00:07Z) - Event-based Asynchronous Sparse Convolutional Networks [54.094244806123235]
イベントカメラはバイオインスパイアされたセンサーで、非同期でスパースな「イベント」の形で画素ごとの明るさ変化に反応する。
同期画像のようなイベント表現で訓練されたモデルを、同じ出力を持つ非同期モデルに変換するための一般的なフレームワークを提案する。
理論的および実験的に、これは高容量同期ニューラルネットワークの計算複雑性と遅延を大幅に減少させることを示す。
論文 参考訳(メタデータ) (2020-03-20T08:39:49Z) - Structural plasticity on an accelerated analog neuromorphic hardware
system [0.46180371154032884]
我々は, プレ・グポストシナプスのパートナーを常に切り替えることにより, 構造的可塑性を達成するための戦略を提案する。
我々はこのアルゴリズムをアナログニューロモルフィックシステムBrainScaleS-2に実装した。
ネットワークトポロジを最適化する能力を示し、簡単な教師付き学習シナリオで実装を評価した。
論文 参考訳(メタデータ) (2019-12-27T10:15:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。