論文の概要: Sparse Spiking Neural-like Membrane Systems on Graphics Processing Units
- arxiv url: http://arxiv.org/abs/2408.04343v1
- Date: Thu, 8 Aug 2024 10:01:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-09 15:58:20.980837
- Title: Sparse Spiking Neural-like Membrane Systems on Graphics Processing Units
- Title(参考訳): グラフィクス処理ユニット上のスパーススパイクニューラルライク膜システム
- Authors: Javier Hernández-Tello, Miguel Ángel Martínez-del-Amor, David Orellana-Martín, Francis George C. Cabarle,
- Abstract要約: 行列表現の2つの圧縮法は以前の研究で提案されたが、シミュレータ上では実装も並列化もされなかった。
本稿では,遅延シミュレータを備えた新しいスパイキングニューラルPシステムの一部として,GPU上で実装および並列化を行う。
これにより、スパイキングニューラルPシステムのシミュレーションにおいて、最先端のGPUライブラリに基づく他のソリューションよりも優れていると結論付けている。
- 参考スコア(独自算出の注目度): 0.562479170374811
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The parallel simulation of Spiking Neural P systems is mainly based on a matrix representation, where the graph inherent to the neural model is encoded in an adjacency matrix. The simulation algorithm is based on a matrix-vector multiplication, which is an operation efficiently implemented on parallel devices. However, when the graph of a Spiking Neural P system is not fully connected, the adjacency matrix is sparse and hence, lots of computing resources are wasted in both time and memory domains. For this reason, two compression methods for the matrix representation were proposed in a previous work, but they were not implemented nor parallelized on a simulator. In this paper, they are implemented and parallelized on GPUs as part of a new Spiking Neural P system with delays simulator. Extensive experiments are conducted on high-end GPUs (RTX2080 and A100 80GB), and it is concluded that they outperform other solutions based on state-of-the-art GPU libraries when simulating Spiking Neural P systems.
- Abstract(参考訳): スパイキングニューラルPシステムの並列シミュレーションは主に行列表現に基づいており、そこではニューラルモデル固有のグラフが隣接行列に符号化される。
シミュレーションアルゴリズムは、並列デバイス上で効率的に実装された演算である行列ベクトル乗法に基づいている。
しかし、スパイキングニューラルPシステムのグラフが完全に接続されていない場合、隣接行列は疎いため、時間領域とメモリ領域の両方で多くの計算資源が無駄にされる。
このため、行列表現のための2つの圧縮法が以前の研究で提案されたが、シミュレータ上では実装も並列化もされなかった。
本稿では,遅延シミュレータを備えた新しいスパイキングニューラルPシステムの一部として,GPU上で実装および並列化を行う。
ハイエンドGPU(RTX2080とA10080GB)で大規模な実験を行い、スパイキングニューラルPシステムのシミュレーションにおいて、最先端GPUライブラリに基づく他のソリューションよりも優れていると結論付けた。
関連論文リスト
- A novel method for iris recognition using BP neural network and parallel
computing by the aid of GPUs (Graphics Processing Units) [0.0]
本稿では,虹彩認識システムの設計における新しい手法を提案する。
これらの特徴を利用する利点は、高速抽出であり、それぞれのアイリスに固有のものであることである。
論文 参考訳(メタデータ) (2023-09-06T22:50:50Z) - PARTIME: Scalable and Parallel Processing Over Time with Deep Neural
Networks [68.96484488899901]
PartIMEは、データが継続的にストリーミングされるたびにニューラルネットワークを高速化するように設計されたライブラリです。
PartIMEは、ストリームから利用可能になった時点で、各データサンプルの処理を開始する。
オンライン学習において、PartialIMEと古典的な非並列ニューラル計算を経験的に比較するために実験が行われる。
論文 参考訳(メタデータ) (2022-10-17T14:49:14Z) - Batch-efficient EigenDecomposition for Small and Medium Matrices [65.67315418971688]
EigenDecomposition (ED)は多くのコンピュータビジョンアルゴリズムとアプリケーションの中心にある。
本稿では,コンピュータビジョンの応用シナリオに特化したQRベースのED手法を提案する。
論文 参考訳(メタデータ) (2022-07-09T09:14:12Z) - Efficient GPU implementation of randomized SVD and its applications [17.71779625877989]
行列分解は、次元データの圧縮やディープラーニングアルゴリズムなど、機械学習においてユビキタスである。
行列分解の典型的な解は、計算コストと時間を大幅に増大させる複雑さを持つ。
我々は,計算行列分解の計算負担を軽減するために,現代のグラフィカル処理ユニット(GPU)で並列に動作する効率的な処理操作を利用する。
論文 参考訳(メタデータ) (2021-10-05T07:42:41Z) - Unfolding Projection-free SDP Relaxation of Binary Graph Classifier via
GDPA Linearization [59.87663954467815]
アルゴリズムの展開は、モデルベースのアルゴリズムの各イテレーションをニューラルネットワーク層として実装することにより、解釈可能で類似のニューラルネットワークアーキテクチャを生成する。
本稿では、Gershgorin disc perfect alignment (GDPA)と呼ばれる最近の線形代数定理を利用して、二進グラフの半定値プログラミング緩和(SDR)のためのプロジェクションフリーアルゴリズムをアンロールする。
実験結果から,我々の未学習ネットワークは純粋モデルベースグラフ分類器よりも優れ,純粋データ駆動ネットワークに匹敵する性能を示したが,パラメータははるかに少なかった。
論文 参考訳(メタデータ) (2021-09-10T07:01:15Z) - VersaGNN: a Versatile accelerator for Graph neural networks [81.1667080640009]
我々は,超効率的なサイストリックアレイベースの多用途ハードウェアアクセラレータである textitVersaGNN を提案する。
textitVersaGNNは平均3712$times$ speedup with 1301.25$times$ energy reduction on CPU、35.4$times$ speedup with 17.66$times$ energy reduction on GPUを達成している。
論文 参考訳(メタデータ) (2021-05-04T04:10:48Z) - SEMULATOR: Emulating the Dynamics of Crossbar Array-based Analog Neural
System with Regression Neural Networks [1.370633147306388]
本稿では,深層ニューラルネットワークを用いてクロスバー型アナログコンピューティングシステムの動作をエミュレートする手法SEMULATORを提案する。
提案したニューラルアーキテクチャを用いて,実験および理論的に,ニューラル計算のためのMACユニットをエミュレートすることを示した。
論文 参考訳(メタデータ) (2021-01-19T21:08:33Z) - What if Neural Networks had SVDs? [66.91160214071088]
様々なニューラルネットワークでは、行列反転のような時間を要する行列演算を採用している。
本稿では,行列演算を高速化するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-29T12:58:52Z) - Fast simulations of highly-connected spiking cortical models using GPUs [0.0]
本稿では,C++プログラミング言語で記述されたスパイクニューラルネットワークモデルの大規模シミュレーションのためのライブラリを提案する。
本稿では,生物活動の1秒あたりのシミュレーション時間の観点から,提案ライブラリが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2020-07-28T13:58:50Z) - Accelerating Feedforward Computation via Parallel Nonlinear Equation
Solving [106.63673243937492]
ニューラルネットワークの評価や自己回帰モデルからのサンプリングなどのフィードフォワード計算は、機械学習においてユビキタスである。
本稿では,非線形方程式の解法としてフィードフォワード計算の課題を定式化し,ジャコビ・ガウス・シーデル固定点法とハイブリッド法を用いて解を求める。
提案手法は, 並列化可能な繰り返し回数の削減(あるいは等値化)により, 元のフィードフォワード計算と全く同じ値が与えられることを保証し, 十分な並列化計算能力を付与する。
論文 参考訳(メタデータ) (2020-02-10T10:11:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。