論文の概要: Ultra-Low-Power Spiking Neurons in 7 nm FinFET Technology: A Comparative Analysis of Leaky Integrate-and-Fire, Morris-Lecar, and Axon-Hillock Architectures
- arxiv url: http://arxiv.org/abs/2505.03764v1
- Date: Mon, 21 Apr 2025 03:06:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-11 11:26:45.201755
- Title: Ultra-Low-Power Spiking Neurons in 7 nm FinFET Technology: A Comparative Analysis of Leaky Integrate-and-Fire, Morris-Lecar, and Axon-Hillock Architectures
- Title(参考訳): 7nmフィンFETにおける超低消費電力スパイクニューロン : 漏洩積分,モリス・レーカー,アクソン・ヒルロックアーキテクチャの比較解析
- Authors: Logan Larsh, Raiyan Siddique, Sarah Sharif Yaser Mike Banad,
- Abstract要約: ニューロモルフィックコンピューティングは、大規模な人工知能応用のための脳の顕著なエネルギー効率と並列処理能力を再現することを目的としている。
7nmFinFET技術で実装された3つのスパイクニューロン回路アーキテクチャー、Leaky-and-Fire(LIF)、Moris-Lecar(ML)、Axon-Hillock(AH)について包括的な研究を行った。
以上の結果から,AH設計は最大スループットを達成し,マルチギガヘルツ発火速度(最大3GHz)とアトジュールエネルギーコストを示すことがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neuromorphic computing aims to replicate the brain's remarkable energy efficiency and parallel processing capabilities for large-scale artificial intelligence applications. In this work, we present a comprehensive comparative study of three spiking neuron circuit architectures-Leaky-Integrate-and-Fire (LIF), Morris-Lecar (ML), and Axon-Hillock (AH)-implemented in a 7 nm FinFET technology. Through extensive SPICE simulations, we explore the optimization of spiking frequency, energy per spike, and static power consumption. Our results show that the AH design achieves the highest throughput, demonstrating multi-gigahertz firing rates (up to 3 GHz) with attojoule energy costs. By contrast, the ML architecture excels in subthreshold to near-threshold regimes, offering robust low-power operation (as low as 0.385 aJ/spike) and biological bursting behavior. Although LIF benefits from a decoupled current mirror for high-frequency operation, it exhibits slightly higher static leakage compared to ML and AH at elevated supply voltages. Comparisons with previous node implementations (22 nm planar, 28 nm) reveal that 7 nm FinFETs can drastically boost energy efficiency and speed albeit at the cost of increased subthreshold leakage in deep subthreshold regions. By quantifying design trade-offs for each neuron architecture, our work provides a roadmap for optimizing spiking neuron circuits in advanced nanoscale technologies to deliver neuromorphic hardware capable of both ultra-low-power operation and high computational throughput.
- Abstract(参考訳): ニューロモルフィックコンピューティングは、大規模な人工知能応用のための脳の顕著なエネルギー効率と並列処理能力を再現することを目的としている。
本研究では,7nmFinFETで実装した3つのスパイキングニューロン回路アーキテクチャ(LIF, Morris-Lecar (ML), Axon-Hillock (AH))を総合的に比較検討する。
広範なSPICEシミュレーションを通じて、スパイク周波数、スパイク毎のエネルギー、静的電力消費の最適化について検討する。
以上の結果から,AH設計は最大スループットを達成し,マルチギガヘルツ発火速度(最大3GHz)とアトジュールエネルギーコストを達成できた。
対照的に、MLアーキテクチャはサブスレッショルド(subthreshold)からほぼスレッショルド(reside-threshold)体制に優れ、ロバストな低出力動作(0.385 aJ/spike)と生物学的破裂挙動を提供する。
LIFは、高周波動作のために分離された電流ミラーの恩恵を受けるが、高電圧でMLやAHに比べて少し高い静的リークを示す。
従来のノード実装(22nm平面、28nm)と比較すると、7nmのFinFETは、深いサブスレッショルド領域でのサブスレッショルドリークの増加に伴うエネルギー効率と速度を大幅に向上させることができる。
本研究は, 各ニューロンアーキテクチャの設計トレードオフを定量化することにより, 超低消費電力動作と高い計算スループットの両方が可能なニューロモルフィックハードウェアを提供するため, ナノスケール技術のスパイクニューロン回路を最適化するためのロードマップを提供する。
関連論文リスト
- Explore Activation Sparsity in Recurrent LLMs for Energy-Efficient Neuromorphic Computing [3.379854610429579]
Recurrent Large Language Models (R-LLM) は自己注意の複雑さを軽減するのに有効であることが証明されている。
ニューロモルフィックハードウェア上でのエネルギー効率を高めるために,R-LLMの活性化をスパースする,低コストでトレーニング不要なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-01-09T19:13:03Z) - Neuromorphic Wireless Split Computing with Multi-Level Spikes [69.73249913506042]
ニューロモルフィックコンピューティングは、スパイキングニューラルネットワーク(SNN)を使用して推論タスクを実行する。
スパイクニューロン間で交換される各スパイクに小さなペイロードを埋め込むことで、エネルギー消費を増大させることなく推論精度を高めることができる。
分割コンピューティング — SNNを2つのデバイスに分割する — は、有望なソリューションだ。
本稿では,マルチレベルSNNを用いたニューロモルフィック無線分割コンピューティングアーキテクチャの総合的研究について述べる。
論文 参考訳(メタデータ) (2024-11-07T14:08:35Z) - Analog Spiking Neuron in CMOS 28 nm Towards Large-Scale Neuromorphic Processors [0.8426358786287627]
本研究では,TSMCの28nmCMOS技術を用いた低消費電力Leaky Integrate- and-Fireニューロンの設計を提案する。
製造されたニューロンは1.61 fJ/スパイクを消費し、34$mu m2$の活性領域を占有し、最大スパイク周波数は250mVで300kHzである。
論文 参考訳(メタデータ) (2024-08-14T17:51:20Z) - OPIMA: Optical Processing-In-Memory for Convolutional Neural Network Acceleration [5.0389804644646174]
我々は,処理インメモリ(PIM)ベースの機械学習アクセラレータであるOPIMAを紹介する。
PIMは、内部データ移動のボトルネックのため、高いスループットとエネルギー効率を達成するのに苦労している。
我々は,OPIMAのスループットが2.98倍,エネルギー効率が137倍であることを示す。
論文 参考訳(メタデータ) (2024-07-11T06:12:04Z) - Single Neuromorphic Memristor closely Emulates Multiple Synaptic
Mechanisms for Energy Efficient Neural Networks [71.79257685917058]
我々はこれらのシナプス機能を本質的にエミュレートするSrTiO3に基づく膜状ナノデバイスを実証する。
これらのメムリスタは、安定かつエネルギー効率の良い運転を可能にする非定常低導電系で機能する。
論文 参考訳(メタデータ) (2024-02-26T15:01:54Z) - TeMPO: Efficient Time-Multiplexed Dynamic Photonic Tensor Core for Edge
AI with Compact Slow-Light Electro-Optic Modulator [44.74560543672329]
我々は,TMPOと呼ばれる時間多重化動的フォトニックテンソルアクセラレータを,クロス層デバイス/回路/アーキテクチャのカスタマイズにより提案する。
我々は,368.6TOPSピーク性能,22.3TOPS/Wエネルギー効率,1.2TOPS/mm$2$計算密度を実現した。
この研究は、多層共設計とドメイン固有のカスタマイズの力を示し、将来の電子フォトニクス加速器への道を開く。
論文 参考訳(メタデータ) (2024-02-12T03:40:32Z) - Fine-Tuning Surrogate Gradient Learning for Optimal Hardware Performance
in Spiking Neural Networks [1.52292571922932]
スパイキングニューラルネットワーク(SNN)は、ハードウェアで慎重に活用することで、膨大なエネルギー効率の恩恵をもたらすことができる。
この研究は、トレーニングがハードウェアのパフォーマンスに与える影響に関する新たな洞察を明らかにします。
論文 参考訳(メタデータ) (2024-02-09T06:38:12Z) - SpikingJelly: An open-source machine learning infrastructure platform
for spike-based intelligence [51.6943465041708]
スパイキングニューラルネットワーク(SNN)は、高エネルギー効率のニューロモルフィックチップに脳にインスパイアされたインテリジェンスを実現することを目的としている。
我々は、ニューロモルフィックデータセットの事前処理、深層SNNの構築、パラメータの最適化、およびニューロモルフィックチップへのSNNのデプロイのためのフルスタックツールキットをコントリビュートする。
論文 参考訳(メタデータ) (2023-10-25T13:15:17Z) - THOR -- A Neuromorphic Processor with 7.29G TSOP$^2$/mm$^2$Js
Energy-Throughput Efficiency [2.260725478207432]
生物学的にインスパイアされたスパイキングニューラルネットワーク(SNN)を用いたニューロモルフィックコンピューティングは、エッジコンピューティングデバイスに必要なエネルギ・スループ(ET)効率を満たすための有望なソリューションである。
我々は、エネルギー消費とスループットのボトルネックに対処する新しいメモリ階層とニューロン更新アーキテクチャを備えた全デジタルニューロモルフィックプロセッサTHORを提案する。
論文 参考訳(メタデータ) (2022-12-03T21:36:29Z) - FastFlowNet: A Lightweight Network for Fast Optical Flow Estimation [81.76975488010213]
ディセンス光学フロー推定は、多くのロボットビジョンタスクで重要な役割を果たしています。
現在のネットワークはしばしば多くのパラメータを占有し、計算コストがかかる。
提案したFastFlowNetは、周知の粗大なやり方で、以下のイノベーションで機能する。
論文 参考訳(メタデータ) (2021-03-08T03:09:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。