論文の概要: Darwin3: A large-scale neuromorphic chip with a Novel ISA and On-Chip
Learning
- arxiv url: http://arxiv.org/abs/2312.17582v1
- Date: Fri, 29 Dec 2023 12:35:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-02 12:51:09.820225
- Title: Darwin3: A large-scale neuromorphic chip with a Novel ISA and On-Chip
Learning
- Title(参考訳): Darwin3:新しいISAとオンチップ学習を備えた大規模ニューロモルフィックチップ
- Authors: De Ma, Xiaofei Jin, Shichun Sun, Yitao Li, Xundong Wu, Youneng Hu,
Fangchao Yang, Huajin Tang, Xiaolei Zhu, Peng Lin and Gang Pan
- Abstract要約: 本稿では,新しい命令セットアーキテクチャを備えた大規模ニューロモルフィックチップDarwin3を提案する。
ダーウィン3チップは最大235万個のニューロンをサポートしており、ニューロンの規模では最大である。
- 参考スコア(独自算出の注目度): 19.4694809389434
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spiking Neural Networks (SNNs) are gaining increasing attention for their
biological plausibility and potential for improved computational efficiency. To
match the high spatial-temporal dynamics in SNNs, neuromorphic chips are highly
desired to execute SNNs in hardware-based neuron and synapse circuits directly.
This paper presents a large-scale neuromorphic chip named Darwin3 with a novel
instruction set architecture(ISA), which comprises 10 primary instructions and
a few extended instructions. It supports flexible neuron model programming and
local learning rule designs. The Darwin3 chip architecture is designed in a
mesh of computing nodes with an innovative routing algorithm. We used a
compression mechanism to represent synaptic connections, significantly reducing
memory usage. The Darwin3 chip supports up to 2.35 million neurons, making it
the largest of its kind in neuron scale. The experimental results showed that
code density was improved up to 28.3x in Darwin3, and neuron core fan-in and
fan-out were improved up to 4096x and 3072x by connection compression compared
to the physical memory depth. Our Darwin3 chip also provided memory saving
between 6.8X and 200.8X when mapping convolutional spiking neural networks
(CSNN) onto the chip, demonstrating state-of-the-art performance in accuracy
and latency compared to other neuromorphic chips.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は,その生物学的妥当性と計算効率向上の可能性に注目が集まっている。
SNNの高時空間ダイナミクスと一致させるためには、ハードウェアベースのニューロンとシナプス回路でSNNを直接実行するのがニューロモルフィックチップである。
本稿では、10個の命令と数個の拡張命令からなる新しい命令セットアーキテクチャ(isa)を備えた,darwin3と呼ばれる大規模ニューロモルフィックチップを提案する。
柔軟なニューロンモデルプログラミングと局所学習ルール設計をサポートする。
darwin3チップアーキテクチャは、革新的なルーティングアルゴリズムを備えたコンピューティングノードのメッシュで設計されている。
圧縮機構を用いてシナプス接続を表現し,メモリ使用量を大幅に削減した。
darwin3チップは最大2億3500万のニューロンをサポートしており、ニューロン規模では最大である。
実験の結果,darwin3ではコード密度が28.3倍まで向上し,ニューロンコアのファンインとファンアウトは接続圧縮により4096倍,3072倍に向上した。
われわれのDarwin3チップは、畳み込みスパイクニューラルネットワーク(CSNN)をチップにマッピングする際に、メモリを6.8Xから200.8Xまで節約し、他のニューロモルフィックチップと比較して、最先端の性能とレイテンシを示す。
関連論文リスト
- Random-coupled Neural Network [17.53731608985241]
パルス結合ニューラルネットワーク(PCNN)は、コンピュータビジョンとニューラルネットワークの分野における人間の脳の特徴を模倣するためのよく応用されたモデルである。
本研究では,ランダム結合ニューラルネットワーク(RCNN)を提案する。
ランダム不活性化プロセスを通じて、PCNNのニューロモルフィックコンピューティングの困難を克服する。
論文 参考訳(メタデータ) (2024-03-26T09:13:06Z) - SpikingJelly: An open-source machine learning infrastructure platform
for spike-based intelligence [51.6943465041708]
スパイキングニューラルネットワーク(SNN)は、高エネルギー効率のニューロモルフィックチップに脳にインスパイアされたインテリジェンスを実現することを目的としている。
我々は、ニューロモルフィックデータセットの事前処理、深層SNNの構築、パラメータの最適化、およびニューロモルフィックチップへのSNNのデプロイのためのフルスタックツールキットをコントリビュートする。
論文 参考訳(メタデータ) (2023-10-25T13:15:17Z) - A Resource-efficient Spiking Neural Network Accelerator Supporting
Emerging Neural Encoding [6.047137174639418]
スパイキングニューラルネットワーク(SNN)は、その低消費電力乗算自由コンピューティングにより、最近勢いを増している。
SNNは、大規模なモデルのための人工知能ニューラルネットワーク(ANN)と同様の精度に達するために、非常に長いスパイク列車(1000台まで)を必要とする。
ニューラルエンコーディングでSNNを効率的にサポートできる新しいハードウェアアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-06-06T10:56:25Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - A Spiking Neural Network for Image Segmentation [3.4998703934432682]
我々は,深層ニューラルネットワーク(ANN)アーキテクチャのU-Netを,Nengoフレームワークを用いたスパイキングニューラルネットワーク(SNN)アーキテクチャに変換する。
レートベースモデルとスパイクベースモデルの両方がトレーニングされ、パフォーマンスとパワーのベンチマークに最適化されている。
Intel Loihiのニューロモルフィックチップのニューロモルフィック実装は、従来のハードウェアよりも2倍エネルギー効率が高い。
論文 参考訳(メタデータ) (2021-06-16T16:23:18Z) - Sparse Spiking Gradient Descent [2.741266294612776]
本稿では,従来の手法と同等あるいはより高精度なSNNバックプロパゲーションアルゴリズムを提案する。
本稿では,複雑性の異なる実データセットに対する本手法の有効性を示す。
論文 参考訳(メタデータ) (2021-05-18T20:00:55Z) - Optimizing Memory Placement using Evolutionary Graph Reinforcement
Learning [56.83172249278467]
大規模検索空間を対象とした進化グラフ強化学習(EGRL)を提案する。
我々は、推論のために、Intel NNP-Iチップ上で、我々のアプローチを直接訓練し、検証する。
また,NNP-Iコンパイラと比較して28~78%の高速化を実現している。
論文 参考訳(メタデータ) (2020-07-14T18:50:12Z) - You Only Spike Once: Improving Energy-Efficient Neuromorphic Inference
to ANN-Level Accuracy [51.861168222799186]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、神経型ネットワークの一種である。
SNNはスパースであり、重量はごくわずかであり、通常、より電力集約的な乗算および累積演算の代わりに追加操作のみを使用する。
本研究では,TTFS符号化ニューロモルフィックシステムの限界を克服することを目的としている。
論文 参考訳(メタデータ) (2020-06-03T15:55:53Z) - Non-linear Neurons with Human-like Apical Dendrite Activations [81.18416067005538]
XOR論理関数を100%精度で学習し, 標準的なニューロンに後続のアピーカルデンドライト活性化(ADA)が認められた。
コンピュータビジョン,信号処理,自然言語処理の6つのベンチマークデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-02-02T21:09:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。