論文の概要: Scalable Construction of Spiking Neural Networks using up to thousands of GPUs
- arxiv url: http://arxiv.org/abs/2512.09502v1
- Date: Wed, 10 Dec 2025 10:27:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.481629
- Title: Scalable Construction of Spiking Neural Networks using up to thousands of GPUs
- Title(参考訳): 最大数千のGPUを用いたスパイクニューラルネットワークのスケーラブル構築
- Authors: Bruno Golosio, Gianmarco Tiddia, José Villamar, Luca Pontisso, Luca Sergi, Francesco Simula, Pooja Babu, Elena Pastorelli, Abigail Morrison, Markus Diesmann, Alessandro Lonardo, Pier Stanislao Paolucci, Johanna Senk,
- Abstract要約: 高性能コンピューティングクラスタ上で大規模に複雑なシステムをシミュレーションするには、通信とメモリの効率的な管理が必要である。
計算神経科学研究のための大規模スパイクニューラルネットワークのシミュレーションについて検討する。
- 参考スコア(独自算出の注目度): 29.200909457477007
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diverse scientific and engineering research areas deal with discrete, time-stamped changes in large systems of interacting delay differential equations. Simulating such complex systems at scale on high-performance computing clusters demands efficient management of communication and memory. Inspired by the human cerebral cortex -- a sparsely connected network of $\mathcal{O}(10^{10})$ neurons, each forming $\mathcal{O}(10^{3})$--$\mathcal{O}(10^{4})$ synapses and communicating via short electrical pulses called spikes -- we study the simulation of large-scale spiking neural networks for computational neuroscience research. This work presents a novel network construction method for multi-GPU clusters and upcoming exascale supercomputers using the Message Passing Interface (MPI), where each process builds its local connectivity and prepares the data structures for efficient spike exchange across the cluster during state propagation. We demonstrate scaling performance of two cortical models using point-to-point and collective communication, respectively.
- Abstract(参考訳): 様々な科学的・工学的な研究領域は、相互作用する遅延微分方程式の大規模システムにおける離散的・時間的変化を扱う。
このような複雑なシステムを大規模に高速なコンピューティングクラスタでシミュレーションするには、通信とメモリの効率的な管理が必要である。
ヒト大脳皮質($\mathcal{O}(10^{10})$ニューロンが疎結合で、それぞれ$\mathcal{O}(10^{3})$-$\mathcal{O}(10^{4})$シナプスを形成し、スパイクと呼ばれる短パルスで通信する。
本研究では,MPI(Message Passing Interface)を用いて,マルチGPUクラスタと今後のエクサスケールスーパーコンピュータのネットワーク構築手法を提案する。
点対点通信と集合通信を用いて2つの皮質モデルのスケーリング性能を示す。
関連論文リスト
- Event-based backpropagation on the neuromorphic platform SpiNNaker2 [1.0597501054401728]
EventPropはスパイクニューラルネットワーク(SNN)におけるイベントベースのバックプロパゲーションのためのアルゴリズム
本実装では, 微分方程式とその共役の離散バージョンを用いて, 漏洩した積分・発火ニューロンの多層ネットワークを計算した。
我々は,Yin Yangデータセットを用いたSNNのバッチ並列化オンチップトレーニングの概念実証を行った。
論文 参考訳(メタデータ) (2024-12-19T16:31:42Z) - Neuromorphic Wireless Split Computing with Multi-Level Spikes [69.73249913506042]
ニューロモルフィックコンピューティングは、スパイキングニューラルネットワーク(SNN)を使用して推論タスクを実行する。
スパイクニューロン間で交換される各スパイクに小さなペイロードを埋め込むことで、エネルギー消費を増大させることなく推論精度を高めることができる。
分割コンピューティング — SNNを2つのデバイスに分割する — は、有望なソリューションだ。
本稿では,マルチレベルSNNを用いたニューロモルフィック無線分割コンピューティングアーキテクチャの総合的研究について述べる。
論文 参考訳(メタデータ) (2024-11-07T14:08:35Z) - Runtime Construction of Large-Scale Spiking Neuronal Network Models on
GPU Devices [0.0]
本稿では,GPUメモリ上で対話的,動的,直接的にネットワーク接続を作成する新しい手法を提案する。
我々は,2つの神経科学的なモデルを用いて,コンシューマとデータセンタのGPUによるシミュレーション性能を検証する。
ネットワーク構築時間とシミュレーション時間は、他の最先端のシミュレーション技術と同等か短い。
論文 参考訳(メタデータ) (2023-06-16T14:08:27Z) - Deep Cellular Recurrent Network for Efficient Analysis of Time-Series
Data with Spatial Information [52.635997570873194]
本研究では,空間情報を用いた複雑な多次元時系列データを処理するための新しいディープセルリカレントニューラルネットワーク(DCRNN)アーキテクチャを提案する。
提案するアーキテクチャは,文献に比較して,学習可能なパラメータをかなり少なくしつつ,最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-01-12T20:08:18Z) - Reservoir Memory Machines as Neural Computers [70.5993855765376]
微分可能なニューラルネットワークは、干渉することなく明示的なメモリで人工ニューラルネットワークを拡張する。
我々は、非常に効率的に訓練できるモデルを用いて、微分可能なニューラルネットワークの計算能力を実現する。
論文 参考訳(メタデータ) (2020-09-14T12:01:30Z) - Fast simulations of highly-connected spiking cortical models using GPUs [0.0]
本稿では,C++プログラミング言語で記述されたスパイクニューラルネットワークモデルの大規模シミュレーションのためのライブラリを提案する。
本稿では,生物活動の1秒あたりのシミュレーション時間の観点から,提案ライブラリが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2020-07-28T13:58:50Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。