論文の概要: Temporal-adaptive Weight Quantization for Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2511.17567v1
- Date: Fri, 14 Nov 2025 05:08:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-07 19:06:32.285621
- Title: Temporal-adaptive Weight Quantization for Spiking Neural Networks
- Title(参考訳): スパイクニューラルネットワークのための時間適応重み量子化
- Authors: Han Zhang, Qingyan Meng, Jiaqi Wang, Baiyu Chen, Zhengyu Ma, Xiaopeng Fan,
- Abstract要約: 本稿では,時間的次元に沿って超低ビット重みを適応的に割り当てるために,時間的ダイナミクスによる重み量子化を取り入れた時間的適応重み量子化(TaWQ)を提案する。
当社のTaWQは高エネルギー効率(4.12M, 0.63mJ)を維持しながら、ImageNetでは0.22%の無視可能な量子化損失しか生じない。
- 参考スコア(独自算出の注目度): 40.9339917499242
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Weight quantization in spiking neural networks (SNNs) could further reduce energy consumption. However, quantizing weights without sacrificing accuracy remains challenging. In this study, inspired by astrocyte-mediated synaptic modulation in the biological nervous systems, we propose Temporal-adaptive Weight Quantization (TaWQ), which incorporates weight quantization with temporal dynamics to adaptively allocate ultra-low-bit weights along the temporal dimension. Extensive experiments on static (e.g., ImageNet) and neuromorphic (e.g., CIFAR10-DVS) datasets demonstrate that our TaWQ maintains high energy efficiency (4.12M, 0.63mJ) while incurring a negligible quantization loss of only 0.22% on ImageNet.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)の軽量量子化は、エネルギー消費をさらに減少させる可能性がある。
しかし、精度を犠牲にすることなく重量を定量化することは依然として困難である。
本研究では, 生体神経系におけるアストロサイトを介するシナプス変調に着想を得て, 超低ビット重量を時間的次元に沿って適応的に割り当てる時間的適応重み量子化(TaWQ)を提案する。
静的(例: ImageNet)およびニューロモルフィック(例: CIFAR10-DVS)データセットに対する大規模な実験により、我々のTaWQは高エネルギー効率(例: 4.12M, 0.63mJ)を維持しながら、ImageNetでは0.22%しか無視できない量子化損失を生じることを示した。
関連論文リスト
- MD-SNN: Membrane Potential-aware Distillation on Quantized Spiking Neural Network [18.23285395499578]
スパイキングニューラルネットワーク(SNN)は、従来のニューラルネットワークに代わる有望でエネルギー効率の良い代替手段を提供する。
SNNは、複雑な時間的ダイナミクスによるメモリと計算に関する課題に直面している。
量子化スパイキングニューラルネットワーク(MD-SNN)における膜対応蒸留の導入
論文 参考訳(メタデータ) (2025-12-04T04:27:19Z) - DilateQuant: Accurate and Efficient Diffusion Quantization via Weight Dilation [9.612860507356702]
後トレーニング量子化(PTQ)は、低ビットのケースで破滅的に失敗する。
量子化対応トレーニング(QAT)が不可欠である。
拡散モデルのための新しいQATフレームワークであるDilateQuantを提案する。
論文 参考訳(メタデータ) (2024-09-22T04:21:29Z) - CTRQNets & LQNets: Continuous Time Recurrent and Liquid Quantum Neural Networks [76.53016529061821]
Liquid Quantum Neural Network (LQNet) とContinuous Time Recurrent Quantum Neural Network (CTRQNet) を開発した。
LQNetとCTRQNetは、バイナリ分類によってCIFAR 10で40%の精度向上を実現している。
論文 参考訳(メタデータ) (2024-08-28T00:56:03Z) - Towards Neural Variational Monte Carlo That Scales Linearly with System
Size [67.09349921751341]
量子多体問題(Quantum many-body problem)は、例えば高温超伝導体のようなエキゾチックな量子現象をデミストする中心である。
量子状態を表すニューラルネットワーク(NN)と変分モンテカルロ(VMC)アルゴリズムの組み合わせは、そのような問題を解決する上で有望な方法であることが示されている。
ベクトル量子化技術を用いて,VMCアルゴリズムの局所エネルギー計算における冗長性を利用するNNアーキテクチャVector-Quantized Neural Quantum States (VQ-NQS)を提案する。
論文 参考訳(メタデータ) (2022-12-21T19:00:04Z) - BiTAT: Neural Network Binarization with Task-dependent Aggregated
Transformation [116.26521375592759]
量子化は、与えられたニューラルネットワークの高精度ウェイトとアクティベーションを、メモリ使用量と計算量を減らすために、低精度ウェイト/アクティベーションに変換することを目的としている。
コンパクトに設計されたバックボーンアーキテクチャの極端量子化(1ビットの重み/1ビットのアクティベーション)は、深刻な性能劣化をもたらす。
本稿では,性能劣化を効果的に緩和する新しいQAT法を提案する。
論文 参考訳(メタデータ) (2022-07-04T13:25:49Z) - Overcoming Oscillations in Quantization-Aware Training [18.28657022169428]
量子化をシミュレートしたニューラルネットワークをトレーニングする場合、量子化された重みは、予想外の2つのグリッドポイント間で振動する。
その結果, バッチ正規化統計値の誤算により, 精度が著しく低下する可能性が示唆された。
トレーニング中の振動を克服する2つの新しいQATアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-21T16:07:42Z) - Neural networks with late-phase weights [66.72777753269658]
学習後期に重みのサブセットを組み込むことで,SGDの解をさらに改善できることを示す。
学習の終わりに、重み空間における空間平均を取ることにより、1つのモデルを取得する。
論文 参考訳(メタデータ) (2020-07-25T13:23:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。