論文の概要: CMOS Implementation of Field Programmable Spiking Neural Network for Hardware Reservoir Computing
- arxiv url: http://arxiv.org/abs/2509.17355v1
- Date: Mon, 22 Sep 2025 05:19:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 14:39:27.946164
- Title: CMOS Implementation of Field Programmable Spiking Neural Network for Hardware Reservoir Computing
- Title(参考訳): ハードウェア貯留層コンピューティングのためのフィールドプログラマブルスパイクニューラルネットワークのCMOS実装
- Authors: Ckristian Duran, Nanako Kimura, Zolboo Byambadorj, Tetsuya Iizuka,
- Abstract要約: Deep Neural Networks(DNN)やLarge Language Models(LLM)といった大規模ニューラルネットワークは、高消費電力、領域要件、プライバシに関する懸念から、エッジアプリケーションへの実践的なデプロイに挑戦する。
本研究は、ハードウェア貯水池コンピューティングのためのCMOS実装フィールドプログラマブルニューラルネットワークアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The increasing complexity and energy demands of large-scale neural networks, such as Deep Neural Networks (DNNs) and Large Language Models (LLMs), challenge their practical deployment in edge applications due to high power consumption, area requirements, and privacy concerns. Spiking Neural Networks (SNNs), particularly in analog implementations, offer a promising low-power alternative but suffer from noise sensitivity and connectivity limitations. This work presents a novel CMOS-implemented field-programmable neural network architecture for hardware reservoir computing. We propose a Leaky Integrate-and-Fire (LIF) neuron circuit with integrated voltage-controlled oscillators (VCOs) and programmable weighted interconnections via an on-chip FPGA framework, enabling arbitrary reservoir configurations. The system demonstrates effective implementation of the FORCE algorithm learning, linear and non-linear memory capacity benchmarks, and NARMA10 tasks, both in simulation and actual chip measurements. The neuron design achieves compact area utilization (around 540 NAND2-equivalent units) and low energy consumption (21.7 pJ/pulse) without requiring ADCs for information readout, making it ideal for system-on-chip integration of reservoir computing. This architecture paves the way for scalable, energy-efficient neuromorphic systems capable of performing real-time learning and inference with high configurability and digital interfacing.
- Abstract(参考訳): Deep Neural Networks (DNN)やLarge Language Models (LLMs)のような大規模ニューラルネットワークの複雑さとエネルギー需要の増加は、高消費電力、領域要求、プライバシに関する懸念から、エッジアプリケーションへの実践的なデプロイに挑戦している。
スパイキングニューラルネットワーク(SNN)、特にアナログ実装は、有望な低消費電力の代替手段を提供するが、ノイズ感度と接続制限に悩まされている。
本研究は、ハードウェア貯水池コンピューティングのためのCMOS実装フィールドプログラマブルニューラルネットワークアーキテクチャを提案する。
本稿では、電圧制御型発振器(VCO)を内蔵したLeaky Integrate-and-Fire(LIF)ニューロン回路を提案する。
このシステムは、シミュレーションと実際のチップ測定の両方において、Forceアルゴリズム学習、線形および非線形メモリ容量ベンチマーク、および NARMA10タスクの効果的な実装を示す。
ニューロン設計は、情報読取のためにADCを必要とすることなく、コンパクトな面積利用(約540 NAND2等価単位)と低消費電力(21.7 pJ/パルス)を実現し、貯水池コンピューティングのシステム・オン・チップ統合に最適である。
このアーキテクチャは、スケーラブルでエネルギー効率のよいニューロモルフィックシステムにおいて、リアルタイムの学習と推論を高い構成性とデジタルインターフェースで行うことができる。
関連論文リスト
- Neuromorphic Wireless Split Computing with Multi-Level Spikes [69.73249913506042]
ニューロモルフィックコンピューティングは、スパイキングニューラルネットワーク(SNN)を使用して推論タスクを実行する。
スパイクニューロン間で交換される各スパイクに小さなペイロードを埋め込むことで、エネルギー消費を増大させることなく推論精度を高めることができる。
分割コンピューティング — SNNを2つのデバイスに分割する — は、有望なソリューションだ。
本稿では,マルチレベルSNNを用いたニューロモルフィック無線分割コンピューティングアーキテクチャの総合的研究について述べる。
論文 参考訳(メタデータ) (2024-11-07T14:08:35Z) - Hardware-Friendly Implementation of Physical Reservoir Computing with CMOS-based Time-domain Analog Spiking Neurons [0.26963330643873434]
本稿では, 相補的金属酸化物半導体(CMOS)プラットフォーム上でのハードウェアフレンドリーな物理貯水池計算のためのスパイクニューラルネットワーク(SNN)を提案する。
短期記憶と排他的ORタスクによるRCと、97.7%の精度で音声桁認識タスクを実演する。
論文 参考訳(メタデータ) (2024-09-18T00:23:00Z) - Efficient and accurate neural field reconstruction using resistive memory [52.68088466453264]
デジタルコンピュータにおける従来の信号再構成手法は、ソフトウェアとハードウェアの両方の課題に直面している。
本稿では,スパース入力からの信号再構成のためのソフトウェア・ハードウェア協調最適化を用いた体系的アプローチを提案する。
この研究は、AI駆動の信号復元技術を進歩させ、将来の効率的で堅牢な医療AIと3Dビジョンアプリケーションへの道を開く。
論文 参考訳(メタデータ) (2024-04-15T09:33:09Z) - DYNAP-SE2: a scalable multi-core dynamic neuromorphic asynchronous
spiking neural network processor [2.9175555050594975]
我々は、リアルタイムイベントベーススパイキングニューラルネットワーク(SNN)をプロトタイピングするための、脳にインスパイアされたプラットフォームを提案する。
提案システムは, 短期可塑性, NMDA ゲーティング, AMPA拡散, ホメオスタシス, スパイク周波数適応, コンダクタンス系デンドライトコンパートメント, スパイク伝達遅延などの動的および現実的なニューラル処理現象の直接エミュレーションを支援する。
異なる生物学的に可塑性のニューラルネットワークをエミュレートする柔軟性と、個体群と単一ニューロンの信号の両方をリアルタイムで監視する能力により、基礎研究とエッジコンピューティングの両方への応用のための複雑なニューラルネットワークモデルの開発と検証が可能になる。
論文 参考訳(メタデータ) (2023-10-01T03:48:16Z) - Reconfigurable Distributed FPGA Cluster Design for Deep Learning
Accelerators [59.11160990637615]
エッジコンピューティングアプリケーション用に設計された低消費電力組み込みFPGAに基づく分散システムを提案する。
提案システムは,様々なニューラルネットワーク(NN)モデルを同時に実行し,パイプライン構造にグラフを配置し,NNグラフの最も計算集約的な層により大きなリソースを手動で割り当てる。
論文 参考訳(メタデータ) (2023-05-24T16:08:55Z) - Fluid Batching: Exit-Aware Preemptive Serving of Early-Exit Neural
Networks on Edge NPUs [74.83613252825754]
スマートエコシステム(smart ecosystems)"は、スタンドアロンではなく、センセーションが同時に行われるように形成されています。
これはデバイス上の推論パラダイムを、エッジにニューラル処理ユニット(NPU)をデプロイする方向にシフトしている。
そこで本研究では,実行時のプリエンプションが到着・終了プロセスによってもたらされる動的性を考慮に入れた,新しい早期終了スケジューリングを提案する。
論文 参考訳(メタデータ) (2022-09-27T15:04:01Z) - Real-time Multi-Task Diffractive Deep Neural Networks via
Hardware-Software Co-design [1.6066483376871004]
本研究は,d$2$nnsでロバストかつノイズ耐性のあるマルチタスク学習を実現する,新しいハードウェアソフトウェア共同設計手法を提案する。
私たちの実験結果は、汎用性とハードウェア効率の大幅な改善を示し、提案されたマルチタスクD$2$NNアーキテクチャの堅牢性を実証します。
論文 参考訳(メタデータ) (2020-12-16T12:29:54Z) - Ultra-Low-Power FDSOI Neural Circuits for Extreme-Edge Neuromorphic
Intelligence [2.6199663901387997]
インメモリコンピューティング 混合信号ニューロモルフィックアーキテクチャはエッジコンピューティングのセンサ処理への応用に期待できる超低消費電力のソリューションを提供する。
本稿では、FDSOI(Fully-Depleted Silicon on Insulator)統合プロセスの特徴を利用する混合信号アナログ/デジタル回路を提案する。
論文 参考訳(メタデータ) (2020-06-25T09:31:29Z) - LogicNets: Co-Designed Neural Networks and Circuits for
Extreme-Throughput Applications [6.9276012494882835]
本稿では,高効率FPGA実装に直接マップするニューラルネットワークトポロジを設計する新しい手法を提案する。
その結果,低ビット化と疎結合化の両立により,論理深度が小さく,LUTコストが低い高速回路が実現された。
論文 参考訳(メタデータ) (2020-04-06T22:15:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。