論文の概要: SpikySpace: A Spiking State Space Model for Energy-Efficient Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2601.02411v1
- Date: Fri, 02 Jan 2026 13:10:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-07 17:02:12.640276
- Title: SpikySpace: A Spiking State Space Model for Energy-Efficient Time Series Forecasting
- Title(参考訳): SpikySpace:エネルギー効率の良い時系列予測のためのスパイク状態空間モデル
- Authors: Kaiwen Tang, Jiaqi Zheng, Yuze Jin, Yupeng Qiu, Guangda Sun, Zhanglu Yan, Weng-Fai Wong,
- Abstract要約: SpikySpaceは、注意ブロックの二次コストを選択的スキャンによって線形時間に削減する、スパイク状態空間モデルである。
指数関数や除算などの複雑な演算は、ニューロモルフィックチップ上でコストがかかるため、SiLUとSoftplusの簡易近似を導入する。
一致する環境では、SpkySpaceは2つの最先端トランスフォーマーベースのアプローチと比較して、推定エネルギー消費を98.73%、96.24%削減する。
- 参考スコア(独自算出の注目度): 9.976522013586244
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Time-series forecasting often operates under tight power and latency budgets in fields like traffic management, industrial condition monitoring, and on-device sensing. These applications frequently require near real-time responses and low energy consumption on edge devices. Spiking neural networks (SNNs) offer event-driven computation and ultra-low power by exploiting temporal sparsity and multiplication-free computation. Yet existing SNN-based time-series forecasters often inherit complex transformer blocks, thereby losing much of the efficiency benefit. To solve the problem, we propose SpikySpace, a spiking state-space model (SSM) that reduces the quadratic cost in the attention block to linear time via selective scanning. Further, we replace dense SSM updates with sparse spike trains and execute selective scans only on spike events, thereby avoiding dense multiplications while preserving the SSM's structured memory. Because complex operations such as exponentials and divisions are costly on neuromorphic chips, we introduce simplified approximations of SiLU and Softplus to enable a neuromorphic-friendly model architecture. In matched settings, SpikySpace reduces estimated energy consumption by 98.73% and 96.24% compared to two state-of-the-art transformer based approaches, namely iTransformer and iSpikformer, respectively. In standard time series forecasting datasets, SpikySpace delivers competitive accuracy while substantially reducing energy cost and memory traffic. As the first full spiking state-space model, SpikySpace bridges neuromorphic efficiency with modern sequence modeling, marking a practical and scalable path toward efficient time series forecasting systems.
- Abstract(参考訳): 時系列予測は、交通管理、産業状況監視、デバイス上のセンシングといった分野において、厳しい電力と遅延予算の下で運用されることが多い。
これらのアプリケーションは、エッジデバイス上でのほぼリアルタイムでの応答と低エネルギー消費を必要とすることが多い。
スパイキングニューラルネットワーク(SNN)は、時間空間と乗算不要な計算を利用して、イベント駆動の計算と超低消費電力を提供する。
しかし、既存のSNNベースの時系列予測器は、しばしば複雑なトランスフォーマーブロックを継承し、効率性の多くを失う。
そこで本研究では,SSM(Spike State-space Model)を提案する。このモデルにより,注目ブロックの2次コストを選択的走査により線形時間に削減できる。
さらに,高密度SSM更新をスパーススパイクトレインに置き換え,スパイクイベントのみに選択的スキャンを行い,SSMの構造記憶を保ちながら高密度乗算を回避する。
指数関数や除算などの複雑な演算は、ニューロモルフィックチップ上でコストがかかるため、我々は、ニューロモルフィックフレンドリーなモデルアーキテクチャを実現するために、SiLUとSoftplusの簡易近似を導入する。
一致する環境では、SpkySpaceは、それぞれiTransformerとiSpikformerという2つの最先端トランスフォーマーベースのアプローチと比較して、推定エネルギー消費を98.73%、96.24%削減する。
標準時系列予測データセットでは、SpkySpaceは、エネルギーコストとメモリトラフィックを大幅に削減しながら、競合する精度を提供する。
最初のフルスパイク状態空間モデルとして、SpkySpaceはニューロモルフィック効率を現代的なシーケンスモデリングで橋渡しし、効率的な時系列予測システムへの実用的でスケーラブルな道のりを示す。
関連論文リスト
- Systolic Array-based Accelerator for Structured State-Space Models [1.137896937254823]
State-Space Models (SSM) は非常に長いデータシーケンスをリカレントやトランスフォーマーベースのモデルよりも効率的に処理する。
本稿では,SSMの高速化を目的としたハードウェアアクセラレータEpochCoreを紹介する。
EpochCoreは、GPUと比較してLRAデータセットの平均2000倍のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2025-07-29T00:01:57Z) - STNMamba: Mamba-based Spatial-Temporal Normality Learning for Video Anomaly Detection [48.997518615379995]
ビデオ異常検出(VAD)は、インテリジェントなビデオシステムの可能性から広く研究されている。
CNNやトランスフォーマーをベースとした既存の手法の多くは、依然としてかなりの計算負荷に悩まされている。
空間的時間的正規性の学習を促進するために,STNMambaという軽量で効果的なネットワークを提案する。
論文 参考訳(メタデータ) (2024-12-28T08:49:23Z) - Dynamic Diffusion Transformer [67.13876021157887]
Diffusion Transformer (DiT) は優れた性能を示したが、かなりの計算コストに悩まされている。
本研究では,動的拡散変換器 (DyDiT) を提案する。
3%の微調整により,DiT-XLのFLOPを51%削減し,生成を1.73高速化し,ImageNet上でのFIDスコア2.07を達成する。
論文 参考訳(メタデータ) (2024-10-04T14:14:28Z) - STGformer: Efficient Spatiotemporal Graph Transformer for Traffic Forecasting [11.208740750755025]
交通はスマートシティマネジメントの基盤であり、効率的なアロケーションと交通計画を可能にしている。
ディープラーニングは、データの複雑な非線形パターンをキャプチャする能力を持ち、トラフィック予測の強力なツールとして登場した。
グラフニューラルネットワーク(GCN)とトランスフォーマーベースのモデルは、将来性を示しているが、その計算要求はしばしば、現実のネットワークへの応用を妨げる。
本稿では,管理可能な計算フットプリントを維持しつつ,グローバルおよびローカルの両方のトラフィックパターンの効率的なモデリングを可能にする新しいテンポラルグラフトランスフォーマー(STG)アーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-10-01T04:15:48Z) - Spiking Transformer with Spatial-Temporal Attention [26.7175155847563]
SpikeベースのTransformerは、従来のニューラルネットワーク(ANN)ベースのTransformerに代わる、魅力的でエネルギー効率のよい代替手段を提供する。
本研究では,空間的・時間的情報を自己認識機構に効率よく統合する,シンプルかつ簡単なアーキテクチャである空間時間注意型スパイキングトランスフォーマーを提案する。
アーキテクチャのオーバーホールなしに既存のスパイクベースのトランスにシームレスに統合できる。
論文 参考訳(メタデータ) (2024-09-29T20:29:39Z) - Sparser is Faster and Less is More: Efficient Sparse Attention for Long-Range Transformers [58.5711048151424]
SPARSEK Attention(SPARSEK Attention)は、計算およびメモリ障害を克服するために設計された、新しいスパースアテンション機構である。
提案手法では,各クエリに対して一定数のKVペアを選択するために,スコアリングネットワークと差別化可能なトップkマスク演算子であるSPARSEKを統合する。
実験結果から,SPARSEK注意は従来のスパースアテンション法よりも優れていた。
論文 参考訳(メタデータ) (2024-06-24T15:55:59Z) - PDFormer: Propagation Delay-Aware Dynamic Long-Range Transformer for
Traffic Flow Prediction [78.05103666987655]
空間時空間グラフニューラルネットワーク(GNN)モデルは、この問題を解決する最も有望な方法の1つである。
本稿では,交通流の正確な予測を行うために,遅延を意識した動的長距離トランスフォーマー(PDFormer)を提案する。
提案手法は,最先端の性能を達成するだけでなく,計算効率の競争力も発揮できる。
論文 参考訳(メタデータ) (2023-01-19T08:42:40Z) - An advanced spatio-temporal convolutional recurrent neural network for
storm surge predictions [73.4962254843935]
本研究では, 人工ニューラルネットワークモデルを用いて, 嵐の軌跡/規模/強度履歴に基づいて, 強風をエミュレートする能力について検討する。
本研究では, 人工嵐シミュレーションのデータベースを用いて, 強風を予測できるニューラルネットワークモデルを提案する。
論文 参考訳(メタデータ) (2022-04-18T23:42:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。