論文の概要: hxtorch.snn: Machine-learning-inspired Spiking Neural Network Modeling
on BrainScaleS-2
- arxiv url: http://arxiv.org/abs/2212.12210v1
- Date: Fri, 23 Dec 2022 08:56:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 16:26:41.854650
- Title: hxtorch.snn: Machine-learning-inspired Spiking Neural Network Modeling
on BrainScaleS-2
- Title(参考訳): hxtorch.snn: BrainScaleS-2による機械学習によるスパイキングニューラルネットワークモデリング
- Authors: Philipp Spilger, Elias Arnold, Luca Blessing, Christian Mauch,
Christian Pehle, Eric M\"uller, Johannes Schemmel
- Abstract要約: hxtorch.snnは、BrainScaleS-2ニューロモーフィックシステムの機械学習ベースのモデリングフレームワークである。
hxtorch.snnは、PyTorch内のスパイキングニューラルネットワークのハードウェア・イン・ループトレーニングを可能にする。
我々は,Yin-Yangデータセットを用いた分類タスクにおけるhxtorch.snnの機能を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neuromorphic systems require user-friendly software to support the design and
optimization of experiments. In this work, we address this need by presenting
our development of a machine learning-based modeling framework for the
BrainScaleS-2 neuromorphic system. This work represents an improvement over
previous efforts, which either focused on the matrix-multiplication mode of
BrainScaleS-2 or lacked full automation. Our framework, called hxtorch.snn,
enables the hardware-in-the-loop training of spiking neural networks within
PyTorch, including support for auto differentiation in a fully-automated
hardware experiment workflow. In addition, hxtorch.snn facilitates seamless
transitions between emulating on hardware and simulating in software. We
demonstrate the capabilities of hxtorch.snn on a classification task using the
Yin-Yang dataset employing a gradient-based approach with surrogate gradients
and densely sampled membrane observations from the BrainScaleS-2 hardware
system.
- Abstract(参考訳): ニューロモルフィックシステムは実験の設計と最適化をサポートするためにユーザフレンドリーなソフトウェアを必要とする。
本稿では,brainscales-2ニューロモルフィックシステムのための機械学習ベースのモデリングフレームワークの開発により,このニーズに対処した。
この作業は、brainscales-2のマトリクス乗算モードにフォーカスするか、完全に自動化されていない以前の作業よりも改善されている。
私たちのフレームワークはhxtorch.snnと呼ばれ、完全に自動化されたハードウェア実験ワークフローにおける自動微分のサポートを含む、PyTorch内のスパイクニューラルネットワークのループトレーニングを可能にする。
さらにhxtorch.snnは、ハードウェア上でのエミュレーションとソフトウェアでのシミュレートの間のシームレスな遷移を促進する。
我々は,BrainScaleS-2ハードウェアシステムから,代理勾配と密集した膜観察を用いて,Yin-Yangデータセットを用いた分類タスクにおけるhxtorch.snnの機能を示す。
関連論文リスト
- Neural Metamorphosis [72.88137795439407]
本稿では,ニューラル・メタモルファス(NeuMeta)と呼ばれる,自己変形可能なニューラルネットワークの構築を目的とした新たな学習パラダイムを提案する。
NeuMetaはニューラルネットワークの連続重み多様体を直接学習する。
75%の圧縮速度でもフルサイズの性能を維持する。
論文 参考訳(メタデータ) (2024-10-10T14:49:58Z) - jaxsnn: Event-driven Gradient Estimation for Analog Neuromorphic
Hardware [0.844044431480226]
JAX上に構築された新しいライブラリ(jaxsnn)は、従来の機械学習フレームワークから離れています。
本ライブラリは,時間連続型ニューロモルフィックバックエンドとの互換性に着目し,スパイクニューラルネットワークと勾配推定のシミュレーションを容易にする。
論文 参考訳(メタデータ) (2024-01-30T09:27:13Z) - Scalable Network Emulation on Analog Neuromorphic Hardware [3.1934373544259813]
本稿では,BrainScaleS-2アクセラレーション型ニューロモルフィックプラットフォームのための新しいソフトウェア機能を提案する。
大規模なスパイクニューラルネットワークの分割エミュレーションを容易にする。
単チップBrainScaleS-2システムの物理的サイズ制約を超える2つのディープスパイクニューラルネットワークモデルのトレーニングを実演する。
論文 参考訳(メタデータ) (2024-01-30T09:27:05Z) - Experimental study of Neural ODE training with adaptive solver for
dynamical systems modeling [72.84259710412293]
アダプティブと呼ばれるいくつかのODEソルバは、目の前の問題の複雑さに応じて評価戦略を適用することができる。
本稿では,動的システムモデリングのためのブラックボックスとして適応型ソルバをシームレスに利用できない理由を示すための簡単な実験について述べる。
論文 参考訳(メタデータ) (2022-11-13T17:48:04Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - A Scalable Approach to Modeling on Accelerated Neuromorphic Hardware [0.0]
この研究は、物理モデリングに基づくハイブリッドアクセラレーション型ニューロモルフィックハードウェアアーキテクチャであるBrainScaleS-2システムのソフトウェア側面を示す。
本稿では,BrainScaleS-2オペレーティングシステム(実験ワークフロー,API階層化,ソフトウェア設計,プラットフォーム操作)のキーとなる側面を紹介する。
焦点は、マルチコンポーネントニューロン、ハードウェア・イン・ザ・ループトレーニングのための高速な再構成、組み込みプロセッサのアプリケーション、非スパイキング操作モード、インタラクティブなプラットフォームアクセス、持続可能なハードウェア/ソフトウェアの共同開発など、新しいシステムとソフトウェア機能である。
論文 参考訳(メタデータ) (2022-03-21T16:30:18Z) - Can we learn gradients by Hamiltonian Neural Networks? [68.8204255655161]
本稿では,勾配を学習するODEニューラルネットワークに基づくメタラーナを提案する。
提案手法は,LLUアクティベーションを最適化したMLMとMNISTデータセットにおいて,LSTMに基づくメタラーナーよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-10-31T18:35:10Z) - Train your classifier first: Cascade Neural Networks Training from upper
layers to lower layers [54.47911829539919]
我々は,高品質な分類器を探索するアルゴリズムとして見ることのできる,新しいトップダウン学習手法を開発した。
本研究では,自動音声認識(ASR)タスクと言語モデリングタスクについて検討した。
提案手法は,Wall Street Journal 上でのリカレントニューラルネットワーク ASR モデル,Switchboard 上での自己注意型 ASR モデル,WikiText-2 上での AWD-LSTM 言語モデルなど,一貫して改善されている。
論文 参考訳(メタデータ) (2021-02-09T08:19:49Z) - hxtorch: PyTorch for BrainScaleS-2 -- Perceptrons on Analog Neuromorphic
Hardware [0.0]
本稿では,BrainScaleS-2アナログニューロモルフィックハードウェアシステムを推論アクセラレータとして使用するためのソフトウェアを提案する。
ベクトル行列乗算と畳み込みとそれに対応するソフトウェアベースのオートグレード機能に対するアクセラレータサポートを提供する。
導入したフレームワークの応用として,スマートフォンセンサデータを用いた日常生活活動の分類モデルを提案する。
論文 参考訳(メタデータ) (2020-06-23T16:33:49Z) - Extending BrainScaleS OS for BrainScaleS-2 [0.0]
我々はBrainScaleS-2アーキテクチャのために導入されたソフトウェア拡張について紹介し、紹介する。
BrainScaleS OSはBrainScaleSアーキテクチャのユーザフレンドリーな操作のために設計されたソフトウェアスタックである。
論文 参考訳(メタデータ) (2020-03-30T18:58:55Z) - AutoML-Zero: Evolving Machine Learning Algorithms From Scratch [76.83052807776276]
基本数学的操作をビルディングブロックとして使うだけで,完全な機械学習アルゴリズムを自動的に発見できることが示される。
汎用的な検索空間を通じて人間のバイアスを大幅に低減する新しいフレームワークを導入することでこれを実証する。
機械学習アルゴリズムをゼロから発見する上で、これらの予備的な成功は、この分野における有望な新しい方向性を示していると信じている。
論文 参考訳(メタデータ) (2020-03-06T19:00:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。