論文の概要: Bridging Quantized Artificial Neural Networks and Neuromorphic Hardware
- arxiv url: http://arxiv.org/abs/2505.12221v1
- Date: Sun, 18 May 2025 03:45:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.102538
- Title: Bridging Quantized Artificial Neural Networks and Neuromorphic Hardware
- Title(参考訳): ブリッジング量子化ニューラルネットワークとニューロモルフィックハードウェア
- Authors: Zhenhui Chen, Haoran Xu, De Ma,
- Abstract要約: ニューロモルフィックハードウェアの主な目的の1つは、分散コンピューティングとイベント駆動回路設計を活用することである。
ニューロモルフィックハードウェアのスパイクモデルを構築するために、従来のアプローチはスパイクニューラルネットワーク(SNN)を構築することである。
- 参考スコア(独自算出の注目度): 14.638137829608219
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neuromorphic hardware has been proposed and also been produced for decades. One of the main goals of this hardware is to leverage distributed computing and event-driven circuit design and achieve power-efficient AI system. The name ``neuromorphic'' is derived from its spiking and local computational nature, which mimics the fundamental activity of an animal's nervous system. Neurons as well as distributed computing cores of neuromorphic hardware use single bit data, called a spike, for inter-communication. To construct a spiking model for neuromorphic hardware, the conventional approach is to build spiking neural networks (SNNs). SNN replaces the nonlinearity part of artificial neural networks (ANNs) in the realm of deep learning with spiking neurons, where the spiking neuron mimic the basic behavior of bio-neurons. However, there is still a performance gap between SNN and ANN counterpart. In this paper, we explore a new path from ANN to neuromorphic hardware. The SDANN framework is proposed to directly implement quantized ANN on hardware, eliminating the need for tuning the trainable parameters or any performance degradation. With the power of quantized ANN, our SDANN provides a lower bound of the functionality of neuromorphic hardware. Meanwhile, we have also proposed scaling methods in case of the limited bit-width support in hardware. Spike sparsity methods are also provided for further energy optimization. Experiments on various tasks demonstrate the usefulness of our SDANN framework. Beyond toy examples and software implementation, we successfully deploy the spiking models of SDANN on real neuromorphic hardware, demonstrating the feasibility of the SDANN framework.
- Abstract(参考訳): ニューロモルフィックハードウェアが提案され、何十年も製造されてきた。
このハードウェアの主な目的の1つは、分散コンピューティングとイベント駆動回路設計を活用し、電力効率の高いAIシステムを実現することである。
ニューロモーフィック」という名前は、そのスパイクと局所的な計算の性質からきており、動物の神経系の基本的な活動を模倣している。
ニューロンと、ニューロモルフィックハードウェアの分散コンピューティングコアは、通信間通信のためにスパイクと呼ばれる単一のビットデータを使用する。
ニューロモルフィックハードウェアのスパイクモデルを構築するために、従来のアプローチはスパイクニューラルネットワーク(SNN)を構築することである。
SNNは、深層学習の領域における人工知能ニューラルネットワーク(ANN)の非線形性部分をスパイキングニューロンに置き換え、スパイキングニューロンは生体ニューロンの基本的振る舞いを模倣する。
しかし、SNNとANNの間にはまだパフォーマンスのギャップがある。
本稿では,ANNからニューロモーフィックハードウェアへの新たな道を探る。
SDANNフレームワークはハードウェア上で量子化ANNを直接実装し、トレーニング可能なパラメータやパフォーマンス劣化をチューニングする必要がなくなる。
量子化ANNのパワーにより、SDANNはニューロモルフィックハードウェアの機能の低い境界を提供する。
一方,ハードウェアのビット幅に制限がある場合のスケーリング手法も提案している。
スパイク空間法は、さらなるエネルギー最適化にも用いられる。
各種タスクの実験により,SDANNフレームワークの有用性が示された。
おもちゃの例やソフトウェアの実装以外にも、SDANNのスパイクモデルを実際のニューロモルフィックハードウェアに展開し、SDANNフレームワークの実現可能性を示す。
関連論文リスト
- Towards Efficient Deployment of Hybrid SNNs on Neuromorphic and Edge AI Hardware [0.493599216374976]
本稿では,ニューロモルフィックとエッジコンピューティングの相乗的ポテンシャルを考察し,動的視覚センサが捉えたデータ処理に適した多目的機械学習(ML)システムを構築する。
我々は、PyTorchとLavaフレームワークを使用して、スパイキングニューラルネットワーク(SNN)と人工ニューラルネットワーク(ANN)を混合してハイブリッドモデルを構築し、訓練する。
論文 参考訳(メタデータ) (2024-07-11T17:40:39Z) - Detection of Fast-Moving Objects with Neuromorphic Hardware [12.323012135924374]
スパイキングニューラルネットワーク(SNN)は、しばしば次世代ニューラルネットワーク(NN)と見なされる。
ニューロモルフィックコンピューティング(NC)とSNNは、しばしば次世代ニューラルネットワーク(NN)と見なされる。
論文 参考訳(メタデータ) (2024-03-15T20:53:10Z) - Efficient Event-Based Object Detection: A Hybrid Neural Network with Spatial and Temporal Attention [2.5075774828443467]
ニューロモルフィックハードウェア上のスパイキングニューラルネットワーク(SNN)は、エネルギー効率と低レイテンシのイベントベースのデータ処理のためにしばしば考慮される。
本稿では、イベントベースオブジェクト検出のためのアテンションベースのHybrid SNN-ANNバックボーンを紹介する。
論文 参考訳(メタデータ) (2024-03-15T10:28:31Z) - SpikingJelly: An open-source machine learning infrastructure platform
for spike-based intelligence [51.6943465041708]
スパイキングニューラルネットワーク(SNN)は、高エネルギー効率のニューロモルフィックチップに脳にインスパイアされたインテリジェンスを実現することを目的としている。
我々は、ニューロモルフィックデータセットの事前処理、深層SNNの構築、パラメータの最適化、およびニューロモルフィックチップへのSNNのデプロイのためのフルスタックツールキットをコントリビュートする。
論文 参考訳(メタデータ) (2023-10-25T13:15:17Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Accelerating spiking neural network training [1.6114012813668934]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、脳内の活動電位にインスパイアされた人工ネットワークの一種である。
本稿では,全ての逐次計算を排除し,ベクトル化された演算にのみ依存する単一スパイク/ニューラルオンSNNを直接訓練する手法を提案する。
提案手法は, 従来のSNNと比較して, 95.68 %以上のスパイク数削減を達成し, ニューロモルフィックコンピュータ上でのエネルギー要求を著しく低減する。
論文 参考訳(メタデータ) (2022-05-30T17:48:14Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - BSNN: Towards Faster and Better Conversion of Artificial Neural Networks
to Spiking Neural Networks with Bistable Neurons [8.555786938446133]
スパイキングニューラルネットワーク(SNN)は、個別のバイナリイベントを通じて情報を計算し、伝達する。
最近の研究は、人工知能ニューラルネットワーク(ANN)をSNNに変換することで、優れたパフォーマンスで重要な進歩を遂げている。
位相リードと位相ラグに起因する不活性化ニューロンのスパイク(SIN)問題に対処するバイスタブルスパイクニューラルネットワーク(BSNN)を提案する。
論文 参考訳(メタデータ) (2021-05-27T02:38:02Z) - You Only Spike Once: Improving Energy-Efficient Neuromorphic Inference
to ANN-Level Accuracy [51.861168222799186]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、神経型ネットワークの一種である。
SNNはスパースであり、重量はごくわずかであり、通常、より電力集約的な乗算および累積演算の代わりに追加操作のみを使用する。
本研究では,TTFS符号化ニューロモルフィックシステムの限界を克服することを目的としている。
論文 参考訳(メタデータ) (2020-06-03T15:55:53Z) - Non-linear Neurons with Human-like Apical Dendrite Activations [81.18416067005538]
XOR論理関数を100%精度で学習し, 標準的なニューロンに後続のアピーカルデンドライト活性化(ADA)が認められた。
コンピュータビジョン,信号処理,自然言語処理の6つのベンチマークデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-02-02T21:09:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。