論文の概要: MTM: A Multi-Scale Token Mixing Transformer for Irregular Multivariate Time Series Classification
- arxiv url: http://arxiv.org/abs/2509.17809v1
- Date: Mon, 22 Sep 2025 14:03:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.43051
- Title: MTM: A Multi-Scale Token Mixing Transformer for Irregular Multivariate Time Series Classification
- Title(参考訳): MTM:不規則な多変量時系列分類のためのマルチスケールトークン混合変換器
- Authors: Shuhan Zhong, Weipeng Zhuo, Sizhe Song, Guanyao Li, Zhongyi Yu, S. -H. Gary Chan,
- Abstract要約: IMTS分類のためのマルチスケールトークン混合変換器 MTM を提案する。
時系列を粗い時間スケールにダウンサンプリングすることで、チャネルワイドの非同期性を緩和できることがわかった。
また,あるチャネルから重要なトークンを積極的に選択し,他のチャネルと混在させる新しいチャネル単位のトークン混合機構を提案する。
- 参考スコア(独自算出の注目度): 9.624687648181231
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Irregular multivariate time series (IMTS) is characterized by the lack of synchronized observations across its different channels. In this paper, we point out that this channel-wise asynchrony can lead to poor channel-wise modeling of existing deep learning methods. To overcome this limitation, we propose MTM, a multi-scale token mixing transformer for the classification of IMTS. We find that the channel-wise asynchrony can be alleviated by down-sampling the time series to coarser timescales, and propose to incorporate a masked concat pooling in MTM that gradually down-samples IMTS to enhance the channel-wise attention modules. Meanwhile, we propose a novel channel-wise token mixing mechanism which proactively chooses important tokens from one channel and mixes them with other channels, to further boost the channel-wise learning of our model. Through extensive experiments on real-world datasets and comparison with state-of-the-art methods, we demonstrate that MTM consistently achieves the best performance on all the benchmarks, with improvements of up to 3.8% in AUPRC for classification.
- Abstract(参考訳): 不規則多変量時系列(IMTS)は、異なるチャネル間での同期観測の欠如を特徴としている。
本稿では,このチャネルワイド非同期が,既存のディープラーニング手法のチャネルワイドなモデリングに繋がる可能性があることを指摘する。
この制限を克服するため,IMTS分類のためのマルチスケールトークン混合変圧器 MTM を提案する。
チャネルワイドの非同期性は,時系列を粗い時間スケールにダウンサンプリングすることで緩和できることを示すとともに,徐々にIMTSをダウンサンプリングし,チャネルワイドの注意モジュールを強化するためのマスク付きコンキャットプールをMTMに組み込むことを提案する。
一方,あるチャネルから重要なトークンを積極的に選択し,それを他のチャネルと混合する新しいチャネル単位のトークン混合機構を提案する。
実世界のデータセットに関する広範な実験と最先端の手法との比較を通じて、MTMはすべてのベンチマークで一貫して最高のパフォーマンスを達成し、分類のためのAUPRCでは最大3.8%の改善を実現している。
関連論文リスト
- Wavelet Mixture of Experts for Time Series Forecasting [7.478995447422547]
本稿では,新しい時系列予測モデルWaveTS-Bを提案する。
このモデルはウェーブレット変換と、ウェーブレット領域におけるデータの周期的特性と非定常的特性の両方をキャプチャする機構を組み合わせる。
本モデルでは,パラメータが大幅に少ないSOTA(State-of-the-art)の性能を実現する。
論文 参考訳(メタデータ) (2025-08-12T10:32:51Z) - DUET: Dual Clustering Enhanced Multivariate Time Series Forecasting [13.05900224897486]
実世界の時系列は、時間とともに分布の変化によって引き起こされる異質な時間パターンを示すことが多い。
チャネル間の相関は複雑で絡み合っており、チャネル間の相互作用を正確にかつ柔軟にモデル化することは困難である。
本稿では,時空間とチャネル次元に2つのクラスタリングを導入するDUETというフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-14T15:15:17Z) - MTS-UNMixers: Multivariate Time Series Forecasting via Channel-Time Dual Unmixing [3.192685534395382]
時系列予測(MTS-UNMixer)のためのチャネル時間二元混合ネットワークを提案する。
MTS-UNMixersは、全系列を時間次元とチャネル次元の両方にわたって臨界基底と係数に分解する。
MTS-UNMixers は,複数のベンチマークデータセットにおいて既存手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2024-11-26T08:23:42Z) - SOFTS: Efficient Multivariate Time Series Forecasting with Series-Core Fusion [59.96233305733875]
時系列予測は、金融、交通管理、エネルギー、医療など様々な分野で重要な役割を果たしている。
いくつかの方法は、注意やミキサーのようなメカニズムを利用して、チャネル相関をキャプチャすることでこの問題に対処する。
本稿では,効率的なモデルであるSOFTS(Series-cOre Fused Time Series forecaster)を提案する。
論文 参考訳(メタデータ) (2024-04-22T14:06:35Z) - From Similarity to Superiority: Channel Clustering for Time Series Forecasting [61.96777031937871]
CCM(Channel Clustering Module)を開発した。
CCMは、固有の類似性を特徴とするチャネルを動的にグループ化し、個々のチャネルのアイデンティティの代わりにクラスタ情報を活用する。
CCMは、CIモデルとCDモデルのパフォーマンスを、それぞれ長期および短期の予測において平均利率2.4%と7.2%で向上させることができる。
論文 参考訳(メタデータ) (2024-03-31T02:46:27Z) - MCformer: Multivariate Time Series Forecasting with Mixed-Channels Transformer [8.329947472853029]
Channel Independence(CI)戦略は、すべてのチャネルを単一のチャネルとして扱い、データセットを拡張する。
Mixed Channels戦略は、CI戦略のデータ拡張アドバンテージと、チャネル間の相関を忘れないように対処する機能を組み合わせたものだ。
モデルは特定の数のチャネルをブレンドし、チャネル間の相関情報を効果的に取得するための注意機構を活用する。
論文 参考訳(メタデータ) (2024-03-14T09:43:07Z) - SCHEME: Scalable Channel Mixer for Vision Transformers [52.605868919281086]
ビジョントランスフォーマーは多くの計算タスクで素晴らしいパフォーマンスを達成した。
密度の高い接続は、より大きな膨張比をサポートするスパースブロック対角構造に置き換えることができることを示す。
また、トレーニング中に並列分岐として、軽量でパラメータフリーなチャネル共分散アテンション機構を提案する。
論文 参考訳(メタデータ) (2023-12-01T08:22:34Z) - Fine Timing and Frequency Synchronization for MIMO-OFDM: An Extreme
Learning Approach [8.432859469083951]
極端学習機械(ELM)を用いて高精度同期を実現する手法を提案する。
提案手法は,チャネルパラメータの選択や,機械学習の観点からの「一般化能力」の観点からも頑健である。
論文 参考訳(メタデータ) (2020-07-17T21:41:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。