論文の概要: SEMixer: Semantics Enhanced MLP-Mixer for Multiscale Mixing and Long-term Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2602.16220v1
- Date: Wed, 18 Feb 2026 06:53:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-19 15:58:30.533899
- Title: SEMixer: Semantics Enhanced MLP-Mixer for Multiscale Mixing and Long-term Time Series Forecasting
- Title(参考訳): SEMixer: マルチスケールミキシングと長期時系列予測のためのセマンティックス強化MLPミキサー
- Authors: Xu Zhang, Qitong Wang, Peng Wang, Wei Wang,
- Abstract要約: SEMixerは長期時系列予測(TSF)用に設計された軽量モデルである
MixerはRAM(Random Attention Mechanism)とMPMC(Multiscale Progressive Mixing Chain)を備えている。
MPMCはRAMとアンサンブルミキサーをメモリ効率よくスタックし、より効果的な時間混合を実現する。
- 参考スコア(独自算出の注目度): 9.398256560898448
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modeling multiscale patterns is crucial for long-term time series forecasting (TSF). However, redundancy and noise in time series, together with semantic gaps between non-adjacent scales, make the efficient alignment and integration of multi-scale temporal dependencies challenging. To address this, we propose SEMixer, a lightweight multiscale model designed for long-term TSF. SEMixer features two key components: a Random Attention Mechanism (RAM) and a Multiscale Progressive Mixing Chain (MPMC). RAM captures diverse time-patch interactions during training and aggregates them via dropout ensemble at inference, enhancing patch-level semantics and enabling MLP-Mixer to better model multi-scale dependencies. MPMC further stacks RAM and MLP-Mixer in a memory-efficient manner, achieving more effective temporal mixing. It addresses semantic gaps across scales and facilitates better multiscale modeling and forecasting performance. We not only validate the effectiveness of SEMixer on 10 public datasets, but also on the \textit{2025 CCF AlOps Challenge} based on 21GB real wireless network data, where SEMixer achieves third place. The code is available at the link https://github.com/Meteor-Stars/SEMixer.
- Abstract(参考訳): 長期時系列予測(TSF)には,マルチスケールパターンのモデリングが不可欠である。
しかし、時系列における冗長性とノイズは、非隣接スケール間の意味的ギャップとともに、マルチスケールの時間的依存関係の効率的なアライメントと統合を困難にしている。
そこで本稿では,長期TSF用に設計された軽量マルチスケールモデルであるSEMixerを提案する。
SEMixerはRandom Attention Mechanism(RAM)とMultiscale Progressive Mixing Chain(MPMC)という2つの重要なコンポーネントを備えている。
RAMはトレーニング中のさまざまなタイムパッチインタラクションをキャプチャし、推論時のドロップアウトアンサンブルを通じて集約し、パッチレベルのセマンティクスを強化し、MLP-Mixerによるマルチスケール依存関係のモデル化を可能にする。
MPMCはさらにRAMとMLP-Mixerをメモリ効率よくスタックし、より効果的な時間混合を実現する。
スケール間のセマンティックギャップに対処し、より優れたマルチスケールモデリングと予測性能を実現する。
SEMixerの10の公開データセットに対する有効性を検証するだけでなく、21GBのリアルタイム無線ネットワークデータに基づいた‘textit{2025 CCF AlOps Challenge’でも、SEMixerが3位にランクインしています。
コードはhttps://github.com/Meteor-Stars/SEMixer.comリンクで入手できる。
関連論文リスト
- MaD-Mix: Multi-Modal Data Mixtures via Latent Space Coupling for Vision-Language Model Training [54.78779514101305]
MaD-Mixは、VLMトレーニングのためのマルチモーダルデータ混合を導出する、原則化されたフレームワークである。
MaD-Mixは様々なベンチマークでVLMトレーニングを高速化する。
複雑なトリモーダルビデオ-画像-テキストのシナリオでは、MaD-Mixは均一な重量よりも平均的な精度を向上する。
論文 参考訳(メタデータ) (2026-02-08T03:07:36Z) - xLSTM-Mixer: Multivariate Time Series Forecasting by Mixing via Scalar Memories [20.773694998061707]
時系列データは様々な分野に分散しており、堅牢で正確な予測モデルの開発が必要である。
我々は,時間的シーケンス,共同時間可変情報,堅牢な予測のための複数の視点を効果的に統合するモデルであるxLSTM-Mixerを紹介する。
我々は,最近の最先端手法と比較して,xLSTM-Mixerの長期予測性能が優れていることを示した。
論文 参考訳(メタデータ) (2024-10-22T11:59:36Z) - SOFTS: Efficient Multivariate Time Series Forecasting with Series-Core Fusion [59.96233305733875]
時系列予測は、金融、交通管理、エネルギー、医療など様々な分野で重要な役割を果たしている。
いくつかの方法は、注意やミキサーのようなメカニズムを利用して、チャネル相関をキャプチャすることでこの問題に対処する。
本稿では,効率的なモデルであるSOFTS(Series-cOre Fused Time Series forecaster)を提案する。
論文 参考訳(メタデータ) (2024-04-22T14:06:35Z) - PowMix: A Versatile Regularizer for Multimodal Sentiment Analysis [71.8946280170493]
本稿では,単相混合型正規化手法の強みを生かした汎用な埋め込み空間正規化器であるPowMixを紹介する。
PowMixはマルチモーダルアーキテクチャの融合段階の前に統合され、テキストとテキストを混合するなどのモダル内混合を容易にし、レギュレータとして機能する。
論文 参考訳(メタデータ) (2023-12-19T17:01:58Z) - TSMixer: Lightweight MLP-Mixer Model for Multivariate Time Series
Forecasting [13.410217680999459]
トランスフォーマーは、時系列の相互作用をキャプチャする能力のために時系列予測で人気を博している。
高メモリとコンピューティングの要求は、長期予測にとって重要なボトルネックとなる。
マルチ層パーセプトロン(MLP)モジュールからなる軽量ニューラルネットワークTSMixerを提案する。
論文 参考訳(メタデータ) (2023-06-14T06:26:23Z) - TSMixer: An All-MLP Architecture for Time Series Forecasting [41.178272171720316]
Time-Series Mixer (TSMixer)は、多層パーセプトロン(MLP)を積み重ねた新しいアーキテクチャである。
一般的な学術ベンチマークでは、シンプルな実装TSMixerは専門的な最先端モデルに匹敵する。
我々は、TSMixerの能力に光を流すための様々な分析を行った。
論文 参考訳(メタデータ) (2023-03-10T16:41:24Z) - SplitMixer: Fat Trimmed From MLP-like Models [53.12472550578278]
視覚認識のためのシンプルで軽量な等方的アーキテクチャであるSplitMixerを提案する。
情報(空間混合)とチャネル(チャネル混合)の2種類のインターリーブ畳み込み操作を含む。
論文 参考訳(メタデータ) (2022-07-21T01:37:07Z) - Harnessing Hard Mixed Samples with Decoupled Regularizer [69.98746081734441]
Mixupは、決定境界を混合データで滑らかにすることで、ニューラルネットワークの一般化を改善する効率的なデータ拡張アプローチである。
本稿では,非結合型正規化器(Decoupled Mixup, DM)を用いた効率的な混合目標関数を提案する。
DMは、ミキシングの本来の滑らかさを損なうことなく、硬質混合試料を適応的に利用して識別特性をマイニングすることができる。
論文 参考訳(メタデータ) (2022-03-21T07:12:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。