論文の概要: Integer Binary-Range Alignment Neuron for Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2506.05679v1
- Date: Fri, 06 Jun 2025 02:05:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.287743
- Title: Integer Binary-Range Alignment Neuron for Spiking Neural Networks
- Title(参考訳): スパイクニューラルネットワークのための整数バイナリラジアライメントニューロン
- Authors: Binghao Ye, Wenjuan Li, Dong Wang, Man Yao, Bing Li, Weiming Hu, Dong Liang, Kun Shang,
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、脳に似た計算とエネルギー効率で有名だが、表現能力の制限による画像分類やオブジェクト検出といったタスクでは、人工知能ニューラルネットワーク(ANN)よりも遅れている。
スパイキングニューロンの情報表現能力を指数関数的に拡張する新しいスパイキングニューロンBinary-Range Alignment Leaky Integrate-and-Fireを提案する。
- 参考スコア(独自算出の注目度): 30.778583483869426
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spiking Neural Networks (SNNs) are noted for their brain-like computation and energy efficiency, but their performance lags behind Artificial Neural Networks (ANNs) in tasks like image classification and object detection due to the limited representational capacity. To address this, we propose a novel spiking neuron, Integer Binary-Range Alignment Leaky Integrate-and-Fire to exponentially expand the information expression capacity of spiking neurons with only a slight energy increase. This is achieved through Integer Binary Leaky Integrate-and-Fire and range alignment strategy. The Integer Binary Leaky Integrate-and-Fire allows integer value activation during training and maintains spike-driven dynamics with binary conversion expands virtual timesteps during inference. The range alignment strategy is designed to solve the spike activation limitation problem where neurons fail to activate high integer values. Experiments show our method outperforms previous SNNs, achieving 74.19% accuracy on ImageNet and 66.2% mAP@50 and 49.1% mAP@50:95 on COCO, surpassing previous bests with the same architecture by +3.45% and +1.6% and +1.8%, respectively. Notably, our SNNs match or exceed ANNs' performance with the same architecture, and the energy efficiency is improved by 6.3${\times}$.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、脳に似た計算とエネルギー効率で有名だが、表現能力の制限による画像分類やオブジェクト検出といったタスクでは、人工知能ニューラルネットワーク(ANN)よりも遅れている。
そこで本研究では, スパイキングニューロンの情報表現能力を, わずかなエネルギー増加で指数関数的に拡張する新しいスパイキングニューロン, Integer Binary-Range Alignment Leaky Integrate-and-Fireを提案する。
これはInteger Binary Leaky Integrate-and-Fireとレンジアライメント戦略によって実現される。
Integer Binary Leaky Integrate-and-Fireは、トレーニング中に整数値のアクティベートを可能にし、バイナリ変換でスパイク駆動のダイナミクスを維持し、推論中に仮想タイムステップを拡張する。
レンジアライメント戦略は、ニューロンが高い整数値の活性化に失敗するスパイクアクティベーション制限問題を解決するために設計された。
実験の結果,ImageNetでは74.19%,COCOでは66.2% mAP@50:95で49.1% mAP@50:95で,同じアーキテクチャでは+3.45%,+1.6%,+1.8%であった。
特に、当社のSNNは、同じアーキテクチャでANNのパフォーマンスにマッチするか、超過し、エネルギー効率は6.3${\times}$で改善される。
関連論文リスト
- Scaling Spike-driven Transformer with Efficient Spike Firing Approximation Training [17.193023656793464]
脳にインスパイアされたスパイキングニューラルネットワーク(SNN)の野望は、従来のニューラルネットワーク(ANN)に代わる低消費電力な代替手段になることである。
この作業は、SNNとANNのパフォーマンスギャップと、SNNの高トレーニングコストという、このビジョンを実現する上での2つの大きな課題に対処する。
本研究では,2次発火機構によるスパイクニューロンの固有の欠陥を同定し,整数学習とスパイク駆動推論を用いたスパイクフィリング近似(SFA)法を提案する。
論文 参考訳(メタデータ) (2024-11-25T03:05:41Z) - NAS-BNN: Neural Architecture Search for Binary Neural Networks [55.058512316210056]
我々は、NAS-BNNと呼ばれる二元ニューラルネットワークのための新しいニューラルネットワーク探索手法を提案する。
我々の発見したバイナリモデルファミリーは、20Mから2Mまでの幅広い操作(OP)において、以前のBNNよりも優れていた。
さらに,対象検出タスクにおける探索されたBNNの転送可能性を検証するとともに,探索されたBNNを用いたバイナリ検出器は,MSデータセット上で31.6% mAP,370万 OPsなどの新たな最先端結果を得る。
論文 参考訳(メタデータ) (2024-08-28T02:17:58Z) - Integer-Valued Training and Spike-Driven Inference Spiking Neural Network for High-performance and Energy-efficient Object Detection [15.154553304520164]
スパイキングニューラルネットワーク(SNN)は、ニューラルネットワーク(ANN)に対するバイオプラウと低消費電力のアドバンテージを持つ
本研究では,オブジェクト検出におけるANNとSNNのパフォーマンスギャップを埋めることに焦点を当てる。
我々は,バニラYOLOを単純化し,メタSNNブロックを組み込むことで,この問題を解決するためにSpikeYOLOアーキテクチャを設計する。
論文 参考訳(メタデータ) (2024-07-30T10:04:16Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Event-based Video Reconstruction via Potential-assisted Spiking Neural
Network [48.88510552931186]
バイオインスパイアされたニューラルネットワークは、イベント駆動ハードウェア上での計算効率の向上につながる可能性がある。
完全スパイキングニューラルネットワーク(EVSNN)に基づくイベントベースビデオ再構成フレームワークを提案する。
スパイクニューロンは、そのような時間依存タスクを完了させるために有用な時間情報(メモリ)を格納する可能性がある。
論文 参考訳(メタデータ) (2022-01-25T02:05:20Z) - Neural network relief: a pruning algorithm based on neural activity [47.57448823030151]
重要でない接続を非活性化する簡易な重要スコア計量を提案する。
MNIST上でのLeNetアーキテクチャの性能に匹敵する性能を実現する。
このアルゴリズムは、現在のハードウェアとソフトウェアの実装を考えるとき、FLOPを最小化するように設計されていない。
論文 参考訳(メタデータ) (2021-09-22T15:33:49Z) - ActNN: Reducing Training Memory Footprint via 2-Bit Activation
Compressed Training [68.63354877166756]
ActNNは、バック伝搬のためのランダムに量子化されたアクティベーションを格納するメモリ効率のトレーニングフレームワークである。
ActNNはアクティベーションのメモリフットプリントを12倍に削減し、6.6倍から14倍のバッチサイズでトレーニングを可能にする。
論文 参考訳(メタデータ) (2021-04-29T05:50:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。