論文の概要: Runtime Construction of Large-Scale Spiking Neuronal Network Models on
GPU Devices
- arxiv url: http://arxiv.org/abs/2306.09855v1
- Date: Fri, 16 Jun 2023 14:08:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-19 13:41:37.778736
- Title: Runtime Construction of Large-Scale Spiking Neuronal Network Models on
GPU Devices
- Title(参考訳): GPUデバイスを用いた大規模スパイク神経回路モデルの構築
- Authors: Bruno Golosio, Jose Villamar, Gianmarco Tiddia, Elena Pastorelli,
Jonas Stapmanns, Viviana Fanti, Pier Stanislao Paolucci, Abigail Morrison and
Johanna Senk
- Abstract要約: 本稿では,GPUメモリ上で対話的,動的,直接的にネットワーク接続を作成する新しい手法を提案する。
我々は,2つの神経科学的なモデルを用いて,コンシューマとデータセンタのGPUによるシミュレーション性能を検証する。
ネットワーク構築時間とシミュレーション時間は、他の最先端のシミュレーション技術と同等か短い。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Simulation speed matters for neuroscientific research: this includes not only
how quickly the simulated model time of a large-scale spiking neuronal network
progresses, but also how long it takes to instantiate the network model in
computer memory. On the hardware side, acceleration via highly parallel GPUs is
being increasingly utilized. On the software side, code generation approaches
ensure highly optimized code, at the expense of repeated code regeneration and
recompilation after modifications to the network model. Aiming for a greater
flexibility with respect to iterative model changes, here we propose a new
method for creating network connections interactively, dynamically, and
directly in GPU memory through a set of commonly used high-level connection
rules. We validate the simulation performance with both consumer and data
center GPUs on two neuroscientifically relevant models: a cortical microcircuit
of about 77,000 leaky-integrate-and-fire neuron models and 300 million static
synapses, and a two-population network recurrently connected using a variety of
connection rules. With our proposed ad hoc network instantiation, both network
construction and simulation times are comparable or shorter than those obtained
with other state-of-the-art simulation technologies, while still meeting the
flexibility demands of explorative network modeling.
- Abstract(参考訳): シミュレーションのスピードは神経科学研究にとって重要であり、大規模なスパイク神経ネットワークのシミュレーションモデル時間がどれだけ早く進行するかだけでなく、コンピュータメモリ内のネットワークモデルをインスタンス化するのにどのくらいの時間を要するかも含む。
ハードウェア面では、高並列GPUによるアクセラレーションがますます活用されている。
ソフトウェア側では、コード生成アプローチは、ネットワークモデルの変更後の繰り返しコード再生と再コンパイルを犠牲にして、高度に最適化されたコードを保証する。
本稿では,反復モデル変更に対する柔軟性の向上を目標として,高レベル接続ルールのセットを用いて,gpuメモリ内でネットワーク接続を対話的,動的,直接的に作成する新しい手法を提案する。
我々は、約77,000個の漏れ積分型ニューロンモデルと3億の静的シナプスからなる皮質マイクロ回路と、様々な接続規則を用いて2つの人口ネットワークを繰り返す2つの神経科学的モデル上で、コンシューマとデータセンターのGPUによるシミュレーション性能を検証した。
提案するアドホックネットワークインスタンス化では,ネットワーク構築時間とシミュレーション時間は,爆発的ネットワークモデリングの柔軟性要件を満たしつつ,他の最先端のシミュレーション技術と同等あるいは短くなる。
関連論文リスト
- SpikiLi: A Spiking Simulation of LiDAR based Real-time Object Detection
for Autonomous Driving [0.0]
Spiking Neural Networksは、電力効率、計算効率、処理遅延を大幅に改善する新しいニューラルネットワーク設計アプローチである。
まず,複雑なディープラーニングタスク,すなわちLidarベースの3Dオブジェクト検出による自動運転への適用性について説明する。
論文 参考訳(メタデータ) (2022-06-06T20:05:17Z) - A High Throughput Generative Vector Autoregression Model for Stochastic
Synapses [0.0]
我々は,抵抗性メモリセルの電気的測定データに基づくシナプスアレイの高スループット生成モデルを開発した。
10億セルを超える配列サイズと、毎秒1億の重み更新のスループットを、30フレーム/秒の4Kビデオストリームのピクセルレートよりも上回っていることを実証した。
論文 参考訳(メタデータ) (2022-05-10T17:08:30Z) - An advanced spatio-temporal convolutional recurrent neural network for
storm surge predictions [73.4962254843935]
本研究では, 人工ニューラルネットワークモデルを用いて, 嵐の軌跡/規模/強度履歴に基づいて, 強風をエミュレートする能力について検討する。
本研究では, 人工嵐シミュレーションのデータベースを用いて, 強風を予測できるニューラルネットワークモデルを提案する。
論文 参考訳(メタデータ) (2022-04-18T23:42:18Z) - Real-time Neural-MPC: Deep Learning Model Predictive Control for
Quadrotors and Agile Robotic Platforms [59.03426963238452]
モデル予測制御パイプライン内の動的モデルとして,大規模で複雑なニューラルネットワークアーキテクチャを効率的に統合するフレームワークであるReal-time Neural MPCを提案する。
ニューラルネットワークを使わずに、最先端のMPCアプローチと比較して、位置追跡誤差を最大82%削減することで、実世界の問題に対する我々のフレームワークの実現可能性を示す。
論文 参考訳(メタデータ) (2022-03-15T09:38:15Z) - Simulating Network Paths with Recurrent Buffering Units [4.7590500506853415]
我々は,送信者が提供する時間変化負荷に応じて,エンドツーエンドのパケット遅延値を生成するモデルを求める。
本稿では,リカレントバッファリングユニット(Recurrent Buffering Unit)と呼ばれる新しいRNNスタイルのアーキテクチャに物理ネットワークパスの意味を埋め込む,ネットワークシミュレーションのための新しいグレーボックスアプローチを提案する。
論文 参考訳(メタデータ) (2022-02-23T16:46:31Z) - Parallel Simulation of Quantum Networks with Distributed Quantum State
Management [56.24769206561207]
我々は、量子ネットワークの並列シミュレーションの要件を特定し、最初の並列離散事象量子ネットワークシミュレータを開発する。
コントリビューションには、複数のプロセスに分散した共有量子情報を維持する量子状態マネージャの設計と開発が含まれています。
既存のシーケンシャルバージョンと並行してオープンソースツールとして,並列SeQUeNCeシミュレータをリリースする。
論文 参考訳(メタデータ) (2021-11-06T16:51:17Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Reservoir Memory Machines as Neural Computers [70.5993855765376]
微分可能なニューラルネットワークは、干渉することなく明示的なメモリで人工ニューラルネットワークを拡張する。
我々は、非常に効率的に訓練できるモデルを用いて、微分可能なニューラルネットワークの計算能力を実現する。
論文 参考訳(メタデータ) (2020-09-14T12:01:30Z) - Adaptive Neural Network-Based Approximation to Accelerate Eulerian Fluid
Simulation [9.576796509480445]
モデル生成とアプリケーションを自動化するフレームワークであるSmartfluidnetを紹介します。
Smartfluidnetはシミュレーションの前に複数のニューラルネットワークを生成し、実行時間とシミュレーション品質要件を満たす。
We show that Smartfluidnet achieve a 1.46x and 590x speedup compared with a state-of-the-art neural network model and the original fluid Simulation。
論文 参考訳(メタデータ) (2020-08-26T21:44:44Z) - Fast simulations of highly-connected spiking cortical models using GPUs [0.0]
本稿では,C++プログラミング言語で記述されたスパイクニューラルネットワークモデルの大規模シミュレーションのためのライブラリを提案する。
本稿では,生物活動の1秒あたりのシミュレーション時間の観点から,提案ライブラリが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2020-07-28T13:58:50Z) - One-step regression and classification with crosspoint resistive memory
arrays [62.997667081978825]
高速で低エネルギーのコンピュータは、エッジでリアルタイム人工知能を実現するために要求されている。
ワンステップ学習は、ボストンの住宅のコスト予測と、MNIST桁認識のための2層ニューラルネットワークのトレーニングによって支援される。
結果は、クロスポイントアレイ内の物理計算、並列計算、アナログ計算のおかげで、1つの計算ステップで得られる。
論文 参考訳(メタデータ) (2020-05-05T08:00:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。