論文の概要: Towards Large-scale Network Emulation on Analog Neuromorphic Hardware
- arxiv url: http://arxiv.org/abs/2401.16840v1
- Date: Tue, 30 Jan 2024 09:27:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-31 15:43:51.907595
- Title: Towards Large-scale Network Emulation on Analog Neuromorphic Hardware
- Title(参考訳): アナログニューロモルフィックハードウェアの大規模ネットワークエミュレーションに向けて
- Authors: Elias Arnold, Philipp Spilger, Jan V. Straub, Eric M\"uller, Dominik
Dold, Gabriele Meoni, Johannes Schemmel
- Abstract要約: 分割された大規模スパイクニューラルネットワークのエミュレーションを容易にするBrainScaleS-2アクセラレーション型ニューロモルフィックプラットフォームのための新しいソフトウェア機能を提案する。
単チップBrainScaleS-2システムの物理サイズ制約を超えるMNISTデータセットとEuroSATデータセットを用いた2つのディープスパイクニューラルネットワークモデルのトレーニングを実演する。
- 参考スコア(独自算出の注目度): 3.3535745719000087
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel software feature for the BrainScaleS-2 accelerated
neuromorphic platform that facilitates the emulation of partitioned large-scale
spiking neural networks. This approach is well suited for many deep spiking
neural networks, where the constraint of the largest recurrent subnetwork
fitting on the substrate or the limited fan-in of neurons is often not a
limitation in practice. We demonstrate the training of two deep spiking neural
network models, using the MNIST and EuroSAT datasets, that exceed the physical
size constraints of a single-chip BrainScaleS-2 system. The ability to emulate
and train networks larger than the substrate provides a pathway for accurate
performance evaluation in planned or scaled systems, ultimately advancing the
development and understanding of large-scale models and neuromorphic computing
architectures.
- Abstract(参考訳): 本稿では,分割された大規模スパイクニューラルネットワークのエミュレーションを容易にするbrainscales-2accelerated neuromorphic platformのための新しいソフトウェア機能を提案する。
このアプローチは多くのディープスパイクニューラルネットワークに適しており、基板上の最大のリカレントサブネットワークの制約やニューロンのファンインの制限は実際には制限されないことが多い。
単チップBrainScaleS-2システムの物理サイズ制約を超えるMNISTデータセットとEuroSATデータセットを用いた2つのディープスパイクニューラルネットワークモデルのトレーニングを実演する。
基板よりも大きなネットワークをエミュレートし、トレーニングする能力は、計画またはスケールされたシステムにおける正確なパフォーマンス評価のための経路を提供し、最終的には大規模モデルとニューロモルフィックコンピューティングアーキテクチャの開発と理解を促進する。
関連論文リスト
- SpikingJelly: An open-source machine learning infrastructure platform
for spike-based intelligence [51.6943465041708]
スパイキングニューラルネットワーク(SNN)は、高エネルギー効率のニューロモルフィックチップに脳にインスパイアされたインテリジェンスを実現することを目的としている。
我々は、ニューロモルフィックデータセットの事前処理、深層SNNの構築、パラメータの最適化、およびニューロモルフィックチップへのSNNのデプロイのためのフルスタックツールキットをコントリビュートする。
論文 参考訳(メタデータ) (2023-10-25T13:15:17Z) - Addressing caveats of neural persistence with deep graph persistence [54.424983583720675]
神経の持続性に影響を与える主な要因は,ネットワークの重みのばらつきと大きな重みの空間集中である。
単一層ではなく,ニューラルネットワーク全体へのニューラルネットワークの持続性に基づくフィルタリングの拡張を提案する。
これにより、ネットワーク内の永続的なパスを暗黙的に取り込み、分散に関連する問題を緩和するディープグラフの永続性測定が得られます。
論文 参考訳(メタデータ) (2023-07-20T13:34:11Z) - PTGB: Pre-Train Graph Neural Networks for Brain Network Analysis [39.16619345610152]
臨床結果に関係なく,脳内ネットワーク構造をキャプチャするGNN事前学習フレームワークPTGBを提案する。
PTGBは,(1)脳ネットワークに特化して設計された教師なし事前学習技術で,タスク固有のラベルを持たない大規模データセットからの学習を可能にすること,(2)異なるROIシステムを持つデータセット間の知識伝達を容易にするデータ駆動型パーセルレーションアトラスマッピングパイプラインである。
論文 参考訳(メタデータ) (2023-05-20T21:07:47Z) - Exploring the Approximation Capabilities of Multiplicative Neural
Networks for Smooth Functions [9.936974568429173]
対象関数のクラスは、一般化帯域制限関数とソボレフ型球である。
以上の結果から、乗法ニューラルネットワークは、これらの関数をはるかに少ない層とニューロンで近似できることを示した。
これらの結果は、乗法ゲートが標準フィードフォワード層より優れ、ニューラルネットワーク設計を改善する可能性があることを示唆している。
論文 参考訳(メタデータ) (2023-01-11T17:57:33Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - The BrainScaleS-2 accelerated neuromorphic system with hybrid plasticity [0.0]
本稿では,BrainScaleSニューロモルフィックアーキテクチャの第2世代について述べる。
バイオインスパイアされたスパイクニューラルネットワークプリミティブの、加速された物理的エミュレーションをサポートするカスタムアクセラレータコアと、密結合されたデジタルプロセッサと、イベントルーティングネットワークを組み合わせたものだ。
論文 参考訳(メタデータ) (2022-01-26T17:13:46Z) - POPPINS : A Population-Based Digital Spiking Neuromorphic Processor with
Integer Quadratic Integrate-and-Fire Neurons [50.591267188664666]
2つの階層構造を持つ180nmプロセス技術において,集団に基づくディジタルスパイキングニューロモルフィックプロセッサを提案する。
提案手法は,生体模倣型ニューロモルフィックシステム,低消費電力,低遅延推論処理アプリケーションの開発を可能にする。
論文 参考訳(メタデータ) (2022-01-19T09:26:34Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - EvoPose2D: Pushing the Boundaries of 2D Human Pose Estimation using
Accelerated Neuroevolution with Weight Transfer [82.28607779710066]
生物進化にインスパイアされたニューラル・アーキテクチャー・サーチの一形態であるニューラル・エボリューションの2次元ヒューマン・ポーズ・ネットワークの設計への応用について検討する。
本手法は,最先端の手設計ネットワークよりも効率的かつ高精度なネットワーク設計を実現する。
論文 参考訳(メタデータ) (2020-11-17T05:56:16Z) - Inference with Artificial Neural Networks on Analog Neuromorphic
Hardware [0.0]
BrainScaleS-2 ASICは混合信号ニューロンとシナプス回路から構成される。
システムは、人工ニューラルネットワークのベクトル行列乗算と累積モードでも動作する。
論文 参考訳(メタデータ) (2020-06-23T17:25:06Z) - Structural plasticity on an accelerated analog neuromorphic hardware
system [0.46180371154032884]
我々は, プレ・グポストシナプスのパートナーを常に切り替えることにより, 構造的可塑性を達成するための戦略を提案する。
我々はこのアルゴリズムをアナログニューロモルフィックシステムBrainScaleS-2に実装した。
ネットワークトポロジを最適化する能力を示し、簡単な教師付き学習シナリオで実装を評価した。
論文 参考訳(メタデータ) (2019-12-27T10:15:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。