論文の概要: Demonstrating the Advantages of Analog Wafer-Scale Neuromorphic Hardware
- arxiv url: http://arxiv.org/abs/2412.02619v1
- Date: Tue, 03 Dec 2024 17:46:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:48:45.630397
- Title: Demonstrating the Advantages of Analog Wafer-Scale Neuromorphic Hardware
- Title(参考訳): アナログウェハスケールニューロモルフィックハードウェアの利点を実証する
- Authors: Hartmut Schmidt, Andreas Grübl, José Montes, Eric Müller, Sebastian Schmitt, Johannes Schemmel,
- Abstract要約: 本稿では、BrainScaleS-1システムの性能と利点と、従来のソフトウェアシミュレーションと組み合わせて使用する方法について述べる。
神経型ハードウェア基板に適応した2つの生物学的にインスパイアされたネットワークのエミュレーション時間とエネルギー消費について報告する。
- 参考スコア(独自算出の注目度): 1.6218106536237746
- License:
- Abstract: As numerical simulations grow in size and complexity, they become increasingly resource-intensive in terms of time and energy. While specialized hardware accelerators often provide order-of-magnitude gains and are state of the art in other scientific fields, their availability and applicability in computational neuroscience is still limited. In this field, neuromorphic accelerators, particularly mixed-signal architectures like the BrainScaleS systems, offer the most significant performance benefits. These systems maintain a constant, accelerated emulation speed independent of network model and size. This is especially beneficial when traditional simulators reach their limits, such as when modeling complex neuron dynamics, incorporating plasticity mechanisms, or running long or repetitive experiments. However, the analog nature of these systems introduces new challenges. In this paper we demonstrate the capabilities and advantages of the BrainScaleS-1 system and how it can be used in combination with conventional software simulations. We report the emulation time and energy consumption for two biologically inspired networks adapted to the neuromorphic hardware substrate: a balanced random network based on Brunel and the cortical microcircuit from Potjans and Diesmann.
- Abstract(参考訳): 数値シミュレーションのサイズと複雑さが大きくなると、時間とエネルギーの面で資源集約化が進む。
専門のハードウェアアクセラレーターは、しばしばオーダー・オブ・マグニチュード(英語版)のゲインを提供し、他の科学分野で最先端のものとなっているが、計算神経科学におけるその可用性と適用性はまだ限られている。
この分野では、ニューロモルフィック・アクセラレーター、特にBrainScaleSシステムのような混合信号アーキテクチャは、最も重要なパフォーマンス上の利点を提供する。
これらのシステムは、ネットワークモデルとサイズとは無関係に、一定の速度でエミュレーション速度を維持している。
これは、複雑なニューロンの力学をモデル化したり、可塑性機構を組み込んだり、長期または反復的な実験を行う場合など、従来のシミュレータが限界に達すると特に有益である。
しかし、これらのシステムの類似性は新たな課題をもたらす。
本稿では、BrainScaleS-1システムの性能と利点と、従来のソフトウェアシミュレーションと組み合わせてどのように使用できるかを示す。
本稿では,ニューロモルフィックハードウェア基板に適応した2つの生物学的にインスパイアされたネットワークのエミュレーション時間とエネルギー消費量について報告する。
関連論文リスト
- Integrating programmable plasticity in experiment descriptions for analog neuromorphic hardware [0.9217021281095907]
BrainScaleS-2のニューロモルフィックアーキテクチャは「ハイブリッド」可塑性をサポートするように設計されている。
シナプス間相関測定などの数値シミュレーションで高価な観測機器はシナプス回路に直接実装される。
我々は高レベルな実験記述言語でスパイキングニューラルネットワーク実験と塑性規則を記述するための統合フレームワークを導入する。
論文 参考訳(メタデータ) (2024-12-04T08:46:06Z) - A Realistic Simulation Framework for Analog/Digital Neuromorphic Architectures [73.65190161312555]
ARCANAは、混合信号ニューロモルフィック回路の特性を考慮に入れたスパイクニューラルネットワークシミュレータである。
その結果,ソフトウェアでトレーニングしたスパイクニューラルネットワークの挙動を,信頼性の高い推定結果として提示した。
論文 参考訳(メタデータ) (2024-09-23T11:16:46Z) - Single Neuromorphic Memristor closely Emulates Multiple Synaptic
Mechanisms for Energy Efficient Neural Networks [71.79257685917058]
我々はこれらのシナプス機能を本質的にエミュレートするSrTiO3に基づく膜状ナノデバイスを実証する。
これらのメムリスタは、安定かつエネルギー効率の良い運転を可能にする非定常低導電系で機能する。
論文 参考訳(メタデータ) (2024-02-26T15:01:54Z) - The Expressive Leaky Memory Neuron: an Efficient and Expressive Phenomenological Neuron Model Can Solve Long-Horizon Tasks [64.08042492426992]
本稿では,脳皮質ニューロンの生物学的モデルであるExpressive Memory(ELM)ニューロンモデルを紹介する。
ELMニューロンは、上記の入力-出力関係を1万以下のトレーニング可能なパラメータと正確に一致させることができる。
本稿では,Long Range Arena(LRA)データセットなど,時間構造を必要とするタスクで評価する。
論文 参考訳(メタデータ) (2023-06-14T13:34:13Z) - ETLP: Event-based Three-factor Local Plasticity for online learning with
neuromorphic hardware [105.54048699217668]
イベントベース3要素局所塑性(ETLP)の計算複雑性に明らかな優位性を有する精度の競争性能を示す。
また, 局所的可塑性を用いた場合, スパイキングニューロンの閾値適応, 繰り返しトポロジーは, 時間的構造が豊富な時間的パターンを学習するために必要であることを示した。
論文 参考訳(メタデータ) (2023-01-19T19:45:42Z) - Neuromorphic Artificial Intelligence Systems [58.1806704582023]
フォン・ノイマンアーキテクチャと古典的ニューラルネットワークに基づく現代のAIシステムは、脳と比較して多くの基本的な制限がある。
この記事では、そのような制限と、それらが緩和される方法について論じる。
これは、これらの制限が克服されている現在利用可能なニューロモーフィックAIプロジェクトの概要を示す。
論文 参考訳(メタデータ) (2022-05-25T20:16:05Z) - Mapping and Validating a Point Neuron Model on Intel's Neuromorphic
Hardware Loihi [77.34726150561087]
インテルの第5世代ニューロモルフィックチップ「Loihi」の可能性について検討する。
Loihiは、脳内のニューロンをエミュレートするスパイキングニューラルネットワーク(SNN)という新しいアイデアに基づいている。
Loihiは従来のシミュレーションを非常に効率的に再現し、ネットワークが大きくなるにつれて、時間とエネルギーの両方のパフォーマンスにおいて顕著にスケールする。
論文 参考訳(メタデータ) (2021-09-22T16:52:51Z) - Accelerated Analog Neuromorphic Computing [0.0]
本稿では,BrainScales (BSS) を加速したアナログニューロモルフィックコンピューティングアーキテクチャの背景にある概念について述べる。
第2世代のBrainScales-2(BSS-2)と、その最新のシリコン内実現であるHICANN-Xアプリケーション固有集積回路(ASIC)について述べる。
提示されたアーキテクチャは、ニューロンとシナプスの連続的、アナログ的、物理モデルの実装に基づいている。
論文 参考訳(メタデータ) (2020-03-26T16:00:55Z) - Structural plasticity on an accelerated analog neuromorphic hardware
system [0.46180371154032884]
我々は, プレ・グポストシナプスのパートナーを常に切り替えることにより, 構造的可塑性を達成するための戦略を提案する。
我々はこのアルゴリズムをアナログニューロモルフィックシステムBrainScaleS-2に実装した。
ネットワークトポロジを最適化する能力を示し、簡単な教師付き学習シナリオで実装を評価した。
論文 参考訳(メタデータ) (2019-12-27T10:15:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。