論文の概要: RISC-V Toolchain and Agile Development based Open-source Neuromorphic
Processor
- arxiv url: http://arxiv.org/abs/2210.00562v1
- Date: Sun, 2 Oct 2022 16:23:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 16:45:47.398489
- Title: RISC-V Toolchain and Agile Development based Open-source Neuromorphic
Processor
- Title(参考訳): RISC-Vツールチェーンとアジャイル開発ベースのオープンソースニューロモーフィックプロセッサ
- Authors: Jiulong Wang, Ruopu Wu, Guokai Chen, Xuhao Chen, Zhijie Jia, Boran
Liu, Jixiang Zong, Di Zhao
- Abstract要約: 本稿では汎用CPU機能とSNNを組み合わせた低消費電力ニューロモルフィックプロセッサWenquxing 22Aを提案する。
Wenquxing 22Aは、加速器溶液ODINの約5.13倍のエネルギー消費を約分類精度で改善することを示した。
- 参考スコア(独自算出の注目度): 3.1808730107364362
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent decades, neuromorphic computing aiming to imitate brains' behaviors
has been developed in various fields of computer science. The Artificial Neural
Network (ANN) is an important concept in Artificial Intelligence (AI). It is
utilized in recognition and classification. To explore a better way to simulate
obtained brain behaviors, which is fast and energy-efficient, on hardware,
researchers need an advanced method such as neuromorphic computing. In this
case, Spiking Neural Network (SNN) becomes an optimal choice in hardware
implementation. Recent works are focusing on accelerating SNN computing.
However, most accelerator solutions are based on CPU-accelerator architecture
which is energy-inefficient due to the complex control flows in this structure.
This paper proposes Wenquxing 22A, a low-power neuromorphic processor that
combines general-purpose CPU functions and SNN to efficiently compute it with
RISC-V SNN extension instructions. The main idea of Wenquxing 22A is to
integrate the SNN calculation unit into the pipeline of a general-purpose CPU
to achieve low-power computing with customized RISC-V SNN instructions version
1.0 (RV-SNN V1.0), Streamlined Leaky Integrate-and-Fire (LIF) model, and the
binary stochastic Spike-timing-dependent-plasticity (STDP). The source code of
Wenquxing 22A is released online on Gitee and GitHub. We apply Wenquxing 22A to
the recognition of the MNIST dataset to make a comparison with other SNN
systems. Our experiment results show that Wenquxing 22A improves the energy
expenses by 5.13 times over the accelerator solution, ODIN, with approximately
classification accuracy, 85.00% for 3-bit ODIN online learning, and 91.91% for
1-bit Wenquxing 22A.
- Abstract(参考訳): 近年,脳の動作を模倣するニューロモルフィックコンピューティングがコンピュータ科学の様々な分野で開発されている。
ANN(Artificial Neural Network)は、人工知能(AI)において重要な概念である。
認識と分類に利用される。
ハードウェア上で、高速でエネルギー効率のよい脳の振る舞いをシミュレートするより良い方法を探るため、研究者はニューロモルフィックコンピューティングのような高度な手法が必要である。
この場合、スパイキングニューラルネットワーク(SNN)はハードウェア実装において最適な選択肢となる。
最近の研究はSNNコンピューティングの高速化に重点を置いている。
しかし、ほとんどのアクセラレーターソリューションは、この構造における複雑な制御フローのためにエネルギー非効率なCPU加速器アーキテクチャに基づいている。
本稿では、汎用CPU機能とSNNを組み合わせた低消費電力ニューロモルフィックプロセッサであるWenquxing 22Aを提案し、RISC-V SNN拡張命令で効率的に計算する。
Wenquxing 22Aの主なアイデアは、SNN計算ユニットを汎用CPUのパイプラインに統合して、カスタマイズされたRISC-V SNN命令バージョン1.0(RV-SNN V1.0)、Streamlined Leaky Integrate-and-Fire(LIF)モデル、およびバイナリ確率スパイク応答依存塑性(STDP)による低消費電力コンピューティングを実現することである。
wenquxing 22aのソースコードはgiteeとgithubからオンラインで公開されている。
Wenquxing 22AをMNISTデータセットの認識に適用し、他のSNNシステムと比較する。
Wenquxing 22Aは,3ビットODINオンライン学習では85.00%,1ビットODINでは91.91%,アクセラレータソリューションでは5.13倍のエネルギー消費を達成できた。
関連論文リスト
- Towards Scalable GPU-Accelerated SNN Training via Temporal Fusion [8.995682796140429]
スパイキングニューラルネットワーク(SNN)は、人工知能の変革的発展として出現する。
SNNは、特別なスパース計算ハードウェア上で有望な効率を示すが、その実践訓練は、しばしば従来のGPUに依存している。
本稿では,GPUプラットフォーム上でのSNNの伝搬ダイナミクスを高速化する新しい時間融合法を提案する。
論文 参考訳(メタデータ) (2024-08-01T04:41:56Z) - Spyx: A Library for Just-In-Time Compiled Optimization of Spiking Neural
Networks [0.08965418284317034]
Spiking Neural Networks(SNN)は、小さくて低消費電力なハードウェアフットプリントによるエネルギー効率の向上を提供する。
本稿では、JAXで設計された新しい軽量SNNシミュレーションおよび最適化ライブラリSpyxを紹介する。
論文 参考訳(メタデータ) (2024-02-29T09:46:44Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Keys to Accurate Feature Extraction Using Residual Spiking Neural
Networks [1.101002667958165]
スパイキングニューラルネットワーク(SNN)は、従来の人工ニューラルネットワーク(ANN)の代替として興味深いものになった
本稿では,現代のスパイク建築の鍵となる構成要素について述べる。
我々は、成功しているResNetアーキテクチャのスパイクバージョンを設計し、異なるコンポーネントとトレーニング戦略をテストする。
論文 参考訳(メタデータ) (2021-11-10T21:29:19Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Fully-parallel Convolutional Neural Network Hardware [0.7829352305480285]
本稿では,ハードウェアにArticial Neural Networks(ANN)を実装するための,新しい電力・面積効率アーキテクチャを提案する。
LENET-5として完全に並列なCNNを1つのFPGAに埋め込んでテストするのが初めてである。
論文 参考訳(メタデータ) (2020-06-22T17:19:09Z) - You Only Spike Once: Improving Energy-Efficient Neuromorphic Inference
to ANN-Level Accuracy [51.861168222799186]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、神経型ネットワークの一種である。
SNNはスパースであり、重量はごくわずかであり、通常、より電力集約的な乗算および累積演算の代わりに追加操作のみを使用する。
本研究では,TTFS符号化ニューロモルフィックシステムの限界を克服することを目的としている。
論文 参考訳(メタデータ) (2020-06-03T15:55:53Z) - Compiling Spiking Neural Networks to Neuromorphic Hardware [4.273223677453178]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上で実行される機械学習アプリケーションのエネルギー消費を減少させる。
本稿では,資源制約のあるニューロモルフィックハードウェア上でSNNを分析し,コンパイルする手法を提案する。
論文 参考訳(メタデータ) (2020-04-07T21:13:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。