論文の概要: SEDformer: Event-Synchronous Spiking Transformers for Irregular Telemetry Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2602.02230v2
- Date: Tue, 03 Feb 2026 11:42:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 16:18:58.870176
- Title: SEDformer: Event-Synchronous Spiking Transformers for Irregular Telemetry Time Series Forecasting
- Title(参考訳): SEDformer:不規則なテレメトリ時系列予測のためのイベント同期スパイキングトランス
- Authors: Ziyu Zhou, Yuchen Fang, Weilin Ruan, Shiyu Wang, James Kwok, Yuxuan Liang,
- Abstract要約: テレメトリIMTS予測のためのSEDエンハンススパイキングトランスであるSEDformerを提案する。
SEDformerは、エネルギーとメモリ使用量を削減しながら最先端の予測精度を達成する。
- 参考スコア(独自算出の注目度): 38.10862458322239
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Telemetry streams from large-scale Internet-connected systems (e.g., IoT deployments and online platforms) naturally form an irregular multivariate time series (IMTS) whose accurate forecasting is operationally vital. A closer examination reveals a defining Sparsity-Event Duality (SED) property of IMTS, i.e., long stretches with sparse or no observations are punctuated by short, dense bursts where most semantic events (observations) occur. However, existing Graph- and Transformer-based forecasters ignore SED: pre-alignment to uniform grids with heavy padding violates sparsity by inflating sequences and forcing computation at non-informative steps, while relational recasting weakens event semantics by disrupting local temporal continuity. These limitations motivate a more faithful and natural modeling paradigm for IMTS that aligns with its SED property. We find that Spiking Neural Networks meet this requirement, as they communicate via sparse binary spikes and update in an event-driven manner, aligning naturally with the SED nature of IMTS. Therefore, we present SEDformer, an SED-enhanced Spiking Transformer for telemetry IMTS forecasting that couples: (1) a SED-based Spike Encoder converts raw observations into event synchronous spikes using an Event-Aligned LIF neuron, (2) an Event-Preserving Temporal Downsampling module compresses long gaps while retaining salient firings and (3) a stack of SED-based Spike Transformer blocks enable intra-series dependency modeling with a membrane-based linear attention driven by EA-LIF spiking features. Experiments on public telemetry IMTS datasets show that SEDformer attains state-of-the-art forecasting accuracy while reducing energy and memory usage, providing a natural and efficient path for modeling IMTS.
- Abstract(参考訳): 大規模なインターネットに接続されたシステム(IoTデプロイメントやオンラインプラットフォームなど)からのテレメトリストリームは自然に不規則な多変量時系列(IMTS)を形成し、正確な予測は運用上不可欠である。
より詳しく調べると、IMTSのSED(Sparsity-Event Duality)特性は定義されている。
しかし、既存のグラフおよびトランスフォーマーベースの予測器は、SEDを無視している: 重いパディングを持つ一様グリッドへの事前アライメントは、シーケンスを膨らませ、非形式的なステップで計算を強制することで、空間性に反するが、リレーショナルリキャストは、局所的時間的連続性を乱すことによってイベントセマンティクスを弱める。
これらの制限は、SEDプロパティと整合したIMTSのより忠実で自然なモデリングパラダイムを動機付けている。
スパイキングニューラルネットワークはこの要件を満たしており、スパースバイナリスパイクを介して通信し、イベント駆動方式で更新し、IMTSのSED特性と自然に整合する。
そこで,SED-enhanced Spike Transformer, SEDformer, SED-enhanced Spike Transformer for telemetry IMTS forecasting that couples: (1) SED-based Spike Encoder, (2) Event-Aligned LIF neuron, (2) Event-Preserving Temporal Downsampling module, 3) SED-based Spike Transformer blockのスタックは,EA-LIF スパイキング特徴に起因した膜ベースの線形アテンションによるシリーズ内依存性モデリングを可能にする。
公開テレメトリIMTSデータセットの実験では、SEDformerはエネルギーとメモリ使用量を削減しつつ最先端の予測精度を達成し、IMTSをモデル化するための自然で効率的な経路を提供する。
関連論文リスト
- LiQSS: Post-Transformer Linear Quantum-Inspired State-Space Tensor Networks for Real-Time 6G [85.58816960936069]
Sixth-Generation (6G) Open Radio Access Networks (O-RAN) における能動的およびエージェント的制御は、厳密なニアタイム(Near-RT)レイテンシと計算制約の下で制御グレードの予測を必要とする。
本稿では,効率的な無線テレメトリ予測のための変圧器後パラダイムについて検討する。
本稿では、自己アテンションを安定な状態空間動的カーネルに置き換える量子インスピレーション付き状態空間テンソルネットワークを提案する。
論文 参考訳(メタデータ) (2026-01-18T12:08:38Z) - Keep the Lights On, Keep the Lengths in Check: Plug-In Adversarial Detection for Time-Series LLMs in Energy Forecasting [35.31487571405278]
本稿では,TS-LLMの可変長入力機能を利用したプラグイン検出フレームワークを提案する。
我々は3つのエネルギーデータセットにまたがる3つの代表的なTS-LLMに対するアプローチを評価した。
論文 参考訳(メタデータ) (2025-12-13T03:24:36Z) - Dynamic Temporal Positional Encodings for Early Intrusion Detection in IoT [3.6686692131754834]
IoT(Internet of Things)の急速な拡張は、重大なセキュリティ上の課題をもたらしている。
従来の侵入検知システム(IDS)は、しばしばネットワークトラフィックの時間的特性を見落としている。
動的時間的位置エンコーディングを組み込んだトランスフォーマーを用いた早期侵入検知システム(EIDS)を提案する。
論文 参考訳(メタデータ) (2025-06-22T17:56:19Z) - HyperIMTS: Hypergraph Neural Network for Irregular Multivariate Time Series Forecasting [24.29827089303662]
不規則な多変量時系列(IMTS)は変数内の不規則な時間間隔と変数間の不整合観察によって特徴づけられる。
IMTS予測のためのハイパーグラフニューラルネットワークHyperIMTSを提案する。
実験では、計算コストの低いIMTS予測において、最先端モデル間のHyperIMTSの競合性能を示す。
論文 参考訳(メタデータ) (2025-05-23T03:27:04Z) - Towards Stabilized and Efficient Diffusion Transformers through Long-Skip-Connections with Spectral Constraints [51.83081671798784]
Diffusion Transformers (DiT) は、画像およびビデオ生成のための強力なアーキテクチャとして登場し、優れた品質とスケーラビリティを提供している。
DiTの実用アプリケーションは本質的に動的特徴不安定性に悩まされており、キャッシュされた推論中にエラーを増幅する。
我々は,Long-Skip-Connections (LSCs) で拡張された画像およびビデオ生成型DiTであるSkip-DiTを提案する。
論文 参考訳(メタデータ) (2024-11-26T17:28:10Z) - A Poisson-Gamma Dynamic Factor Model with Time-Varying Transition Dynamics [51.147876395589925]
非定常PGDSは、基礎となる遷移行列が時間とともに進化できるように提案されている。
後続シミュレーションを行うために, 完全共役かつ効率的なギブスサンプリング装置を開発した。
実験により,提案した非定常PGDSは,関連するモデルと比較して予測性能が向上することを示した。
論文 参考訳(メタデータ) (2024-02-26T04:39:01Z) - DuETT: Dual Event Time Transformer for Electronic Health Records [14.520791492631114]
我々はDuETTアーキテクチャを紹介した。これは、時間とイベントの両タイプにまたがるように設計されたトランスフォーマーの拡張である。
DuETTは集約された入力を使用し、スパース時系列は一定長さの正規シーケンスに変換される。
本モデルでは,MIMIC-IV と PhysioNet-2012 EHR データセットを用いて,複数の下流タスクにおける最先端のディープラーニングモデルより優れています。
論文 参考訳(メタデータ) (2023-04-25T17:47:48Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。