論文の概要: Kirin: Improving ANN efficiency with SNN Hybridization
- arxiv url: http://arxiv.org/abs/2602.08817v1
- Date: Mon, 09 Feb 2026 15:53:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:25.337178
- Title: Kirin: Improving ANN efficiency with SNN Hybridization
- Title(参考訳): Kirin: SNNハイブリダイゼーションによるANN効率の改善
- Authors: Chenyu Wang, Zhanglu Yan, Zhi Zhou, Xu Chen, Weng-Fai Wong,
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、そのバイナリおよびイベント駆動特性により、例外的なエネルギー効率を示す。
本稿では,低ビット幅パラメータを2進スパイクに符号化し,残りを整数形式で保存するSpike Matrix Hybridization法を提案する。
W4A4&8量子化設定の下で、キリンはエネルギー消費を84.66%削減し、時間歩を93.75%短縮しながらほぼFP16精度を達成する。
- 参考スコア(独自算出の注目度): 18.963480523099694
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial neural networks (ANNs), particularly large language models (LLMs), demonstrate powerful inference capabilities but consume substantial energy. Conversely, spiking neural networks (SNNs) exhibit exceptional energy efficiency due to their binary and event-driven characteristics, thus motivating the study of ANN-to-SNN conversion. In this process, quantization plays a pivotal role, mapping LLMs' floating-point parameters to discrete SNN parameters via the temporal dimension of the time window. However, several challenges remain in the conversion process: (i) converting high bit-width quantization values into binary spikes requires longer time windows, increasing system latency; and (ii) the inherent trade-off between the information loss of single-spike schemes and the energy costs of multi-spike ones in SNN. To address these challenges, we propose Kirin, a integer and spike hybrid based SNN to achieve accuracy lossless ANN-to-SNN conversion with time and energy efficiency. Specifically, we first propose a Spike Matrix Hybridization strategy that encoding low bit-width parameters that leading to small time window size into binary spikes while preserving the rest in integer format, thereby reducing the overall latency of SNN execution. Second, we introduce a silence threshold mechanism to regulate the timing of single-spike firing, ensuring the output is mathematically equivalent to the LLM's output and preserves accuracy. Experimental results demonstrate that Kirin, under a W4A4\&8 quantization setting, achieves near-FP16 accuracy while reducing energy consumption by up to 84.66\% and shortening time steps by 93.75\%.
- Abstract(参考訳): 人工ニューラルネットワーク(ANN)、特に大きな言語モデル(LLM)は強力な推論能力を示すが、かなりのエネルギーを消費する。
逆に、スパイキングニューラルネットワーク(SNN)は、そのバイナリとイベント駆動特性により、例外的なエネルギー効率を示し、ANN-to-SNN変換の研究を動機付けている。
このプロセスでは、量子化が重要な役割を担い、LLMの浮動小数点パラメータを時間ウィンドウの時間次元を介して離散SNNパラメータにマッピングする。
しかし、変換プロセスにはいくつかの課題が残っている。
(i)高ビット幅量子化値をバイナリスパイクに変換するには、より長い時間窓が必要で、システム遅延が増加する。
二 シングルスパイク方式の情報損失とSNNにおけるマルチスパイク方式のエネルギーコストとの本質的にのトレードオフ。
これらの課題に対処するために,整数とスパイクのハイブリッドに基づくSNNであるKirinを提案し,時間とエネルギー効率で精度の低下のないANN-to-SNN変換を実現する。
具体的には,低ビット幅パラメータを符号化したスパイク行列ハイブリダイゼーション手法を提案する。
第2に,単一スパイク発射のタイミングを制御するサイレントしきい値機構を導入し,出力がLLMの出力と数学的に等価であることを確認し,精度を維持する。
実験により, キリンはW4A4\&8量子化条件下で, エネルギー消費を84.66\%, 時間歩を93.75\%に短縮しながら, ほぼFP16精度を達成した。
関連論文リスト
- Quantization Meets Spikes: Lossless Conversion in the First Timestep via Polarity Multi-Spike Mapping [8.32624081553367]
スパイキングニューラルネットワーク(SNN)は、イベント駆動コンピューティングによる計算効率の利点を提供する。
従来の人工ニューラルネットワーク(Ann)は、トレーニング中に高い計算とエネルギーコストに悩まされることが多い。
Anns-to-SNN変換アプローチは依然として価値があり実用的な代替手段である。
論文 参考訳(メタデータ) (2025-08-20T08:30:30Z) - Efficient ANN-SNN Conversion with Error Compensation Learning [20.155985131466174]
スパイクニューラルネットワーク(SNN)は離散スパイクイベントを通じて動作し、より優れたエネルギー効率を提供する。
現在のANN-to-SNN変換は、しばしば変換エラーによる精度の低下と推論時間の増加をもたらす。
本稿では,誤り補償学習に基づく新しいANN-to-SNN変換フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-12T15:31:34Z) - Differential Coding for Training-Free ANN-to-SNN Conversion [45.70141988713627]
スパイキングニューラルネットワーク(SNN)は、その低エネルギー消費のために大きな可能性を秘めている。
ニューラルネットワーク(ANN)をSNNに変換することは、高性能なSNNを実現するための効率的な方法である。
本稿では, ANN-to-SNN変換の差分符号化について紹介する。
論文 参考訳(メタデータ) (2025-03-01T02:17:35Z) - Towards High-performance Spiking Transformers from ANN to SNN Conversion [43.53538629484375]
スパイクニューラルネットワーク(SNN)は、そのエネルギー効率、高速処理能力、ロバスト性によって大きな可能性を秘めている。
現在の変換方法は、主に畳み込みニューラルネットワーク(CNN)をSNNに変換することに焦点を当てている。
本稿では,変換の精度を維持するための期待補償モジュールを提案する。
論文 参考訳(メタデータ) (2025-02-28T16:12:37Z) - Deep-Unrolling Multidimensional Harmonic Retrieval Algorithms on Neuromorphic Hardware [78.17783007774295]
本稿では,高精度かつエネルギー効率の高い単発多次元高調波検索のための変換に基づくニューロモルフィックアルゴリズムの可能性について検討する。
複雑な値の畳み込み層と活性化をスパイクニューラルネットワーク(SNN)に変換する新しい手法を開発した。
変換されたSNNは、元のCNNに比べて性能が低下し、ほぼ5倍の電力効率を実現している。
論文 参考訳(メタデータ) (2024-12-05T09:41:33Z) - Towards Low-latency Event-based Visual Recognition with Hybrid Step-wise Distillation Spiking Neural Networks [50.32980443749865]
スパイキングニューラルネットワーク(SNN)は、低消費電力と高い生物性のために大きな注目を集めている。
現在のSNNは、ニューロモルフィックデータセットの正確性とレイテンシのバランスをとるのに苦労している。
ニューロモルフィックデータセットに適したステップワイド蒸留法(HSD)を提案する。
論文 参考訳(メタデータ) (2024-09-19T06:52:34Z) - LitE-SNN: Designing Lightweight and Efficient Spiking Neural Network through Spatial-Temporal Compressive Network Search and Joint Optimization [48.41286573672824]
スパイキングニューラルネットワーク(SNN)は人間の脳の情報処理機構を模倣し、エネルギー効率が高い。
本稿では,空間圧縮と時間圧縮の両方を自動ネットワーク設計プロセスに組み込むLitE-SNNという新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-26T05:23:11Z) - When Bio-Inspired Computing meets Deep Learning: Low-Latency, Accurate,
& Energy-Efficient Spiking Neural Networks from Artificial Neural Networks [22.721987637571306]
Spiking Neural Networks (SNN) は畳み込みニューラルネットワーク (CNN) に匹敵する精度を示している
ANN-to-SNN変換は、最近、複雑な画像認識タスクにおける最先端(SOTA)テスト精度に近いディープSNNの開発において、大きな注目を集めている。
提案手法は,SOTA変換手法で必要となる時間ステップを指数的に減少させる新しいANN-to-SNN変換フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-12T00:10:45Z) - Towards Lossless ANN-SNN Conversion under Ultra-Low Latency with Dual-Phase Optimization [30.098268054714048]
非同期離散イベントで動作するスパイキングニューラルネットワーク(SNN)は、スパース計算によるエネルギー効率の向上を示す。
ディープSNNを実装するための一般的なアプローチは、ANNの効率的なトレーニングとSNNの効率的な推論を組み合わせたANN-SNN変換である。
本稿では,SNNにおける負または過フロー残留膜電位の誤表現に起因する性能劣化を最初に同定する。
そこで我々は,変換誤差を量子化誤差,クリッピング誤差,残留膜電位表現誤差の3つの部分に分解した。
論文 参考訳(メタデータ) (2022-05-16T06:53:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。