論文の概要: MOMEMTO: Patch-based Memory Gate Model in Time Series Foundation Model
- arxiv url: http://arxiv.org/abs/2509.18751v1
- Date: Tue, 23 Sep 2025 07:48:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.753942
- Title: MOMEMTO: Patch-based Memory Gate Model in Time Series Foundation Model
- Title(参考訳): MOMEMTO:時系列基礎モデルにおけるパッチベースメモリゲートモデル
- Authors: Samuel Yoon, Jongwon Kim, Juyoung Ha, Young Myoung Ko,
- Abstract要約: パッチベースのメモリモジュールで強化された異常検出のためのTFMである textbfMOMEMTO を提案する。
メモリモジュールは、複数のドメインから代表的な通常のパターンをキャプチャし、単一のモデルを協調的に微調整できるように設計されている。
実験の結果,MOMEMTOは単一モデルとして,ベースライン法に比べてAUC,VUSのスコアが高いことがわかった。
- 参考スコア(独自算出の注目度): 0.07777489763207261
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently reconstruction-based deep models have been widely used for time series anomaly detection, but as their capacity and representation capability increase, these models tend to over-generalize, often reconstructing unseen anomalies accurately. Prior works have attempted to mitigate this by incorporating a memory architecture that stores prototypes of normal patterns. Nevertheless, these approaches suffer from high training costs and have yet to be effectively integrated with time series foundation models (TFMs). To address these challenges, we propose \textbf{MOMEMTO}, a TFM for anomaly detection, enhanced with a patch-based memory module to mitigate over-generalization. The memory module is designed to capture representative normal patterns from multiple domains and enables a single model to be jointly fine-tuned across multiple datasets through a multi-domain training strategy. MOMEMTO initializes memory items with latent representations from a pre-trained encoder, organizes them into patch-level units, and updates them via an attention mechanism. We evaluate our method using 23 univariate benchmark datasets. Experimental results demonstrate that MOMEMTO, as a single model, achieves higher scores on AUC and VUS metrics compared to baseline methods, and further enhances the performance of its backbone TFM, particularly in few-shot learning scenarios.
- Abstract(参考訳): 近年、再構成に基づく深層モデルが時系列異常検出に広く利用されているが、その能力と表現能力が増大するにつれて、これらのモデルは過度に一般化され、しばしば目に見えない異常を正確に再構築する傾向にある。
以前の作業では、通常のパターンのプロトタイプを格納するメモリアーキテクチャを導入して、これを緩和しようとしていた。
しかしながら、これらのアプローチは高いトレーニングコストに悩まされており、まだ時系列基礎モデル(TFM)と効果的に統合されていない。
これらの課題に対処するために、パッチベースのメモリモジュールで拡張された異常検出のための TFM である \textbf{MOMEMTO} を提案する。
メモリモジュールは、複数のドメインから代表的な通常のパターンをキャプチャし、マルチドメインのトレーニング戦略を通じて、複数のデータセットにまたがって単一のモデルを共同で微調整できるように設計されている。
MOMEMTOは、トレーニング済みのエンコーダから遅延表現でメモリアイテムを初期化し、それらをパッチ単位に整理し、アテンション機構を介して更新する。
23の単変量ベンチマークデータセットを用いて,本手法の評価を行った。
実験結果から,MOMEMTOは単一モデルとして,ベースライン法と比較してAUCとVUSのスコアが向上し,特に数ショット学習シナリオにおいて,背骨TFMの性能が向上することが示された。
関連論文リスト
- TSGym: Design Choices for Deep Multivariate Time-Series Forecasting [38.12202305030755]
この作業は、深いMTSFメソッドをそのコアできめ細かいコンポーネントに分解することでギャップを埋める。
MTSFタスクのためのTSGymと呼ばれる新しい自動化ソリューションを提案する。
大規模な実験により、TSGymは既存のMTSF法やAutoML法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2025-09-21T12:49:31Z) - VARMA-Enhanced Transformer for Time Series Forecasting [4.982130518684668]
VARMAformerは、古典的な時系列分析の原理で、クロスアテンションのみのフレームワークの効率を相乗化する新しいアーキテクチャである。
これらの古典的な洞察を現代のバックボーンに融合させることで、VARMAformerはグローバル、長距離の依存関係と局所的な統計構造の両方をキャプチャする。
論文 参考訳(メタデータ) (2025-09-05T03:32:51Z) - Few-Shot Pattern Detection via Template Matching and Regression [52.79291493477272]
本稿では,テンプレートマッチングと回帰に基づく簡易かつ効果的な検出器TMRを提案する。
凍結したバックボーンの上に少数の学習可能な畳み込み層や投射層を持つ最小限の構造を通して、経験者の空間的レイアウトを効果的に保存し、活用する。
提案手法は, RPINE, FSCD-147, FSCD-LVISの3つのベンチマークにおける最先端手法よりも優れ, クロスデータセット評価において強い一般化を示す。
論文 参考訳(メタデータ) (2025-08-25T03:52:42Z) - Revisiting SMoE Language Models by Evaluating Inefficiencies with Task Specific Expert Pruning [78.72226641279863]
SMOE(Sparse Mixture of Expert)モデルは、言語モデリングにおける高密度モデルに代わるスケーラブルな代替品として登場した。
本研究は,SMoEアーキテクチャの設計に関する意思決定を行うために,タスク固有のモデルプルーニングについて検討する。
適応型タスク対応プルーニング手法 UNCURL を導入し,MoE 層当たりの専門家数をオフラインで学習する手法を提案する。
論文 参考訳(メタデータ) (2024-09-02T22:35:03Z) - GM-DF: Generalized Multi-Scenario Deepfake Detection [49.072106087564144]
既存の偽造検出は、通常、単一のドメインでのトレーニングモデルのパラダイムに従う。
本稿では,複数の顔偽造検出データセットを共同で訓練した場合のディープフェイク検出モデルの一般化能力について詳しく検討する。
論文 参考訳(メタデータ) (2024-06-28T17:42:08Z) - UniTST: Effectively Modeling Inter-Series and Intra-Series Dependencies for Multivariate Time Series Forecasting [98.12558945781693]
フラット化されたパッチトークンに統一された注意機構を含む変圧器ベースモデルUniTSTを提案する。
提案モデルでは単純なアーキテクチャを採用しているが,時系列予測のためのいくつかのデータセットの実験で示されたような,魅力的な性能を提供する。
論文 参考訳(メタデータ) (2024-06-07T14:39:28Z) - ConvTimeNet: A Deep Hierarchical Fully Convolutional Model for Multivariate Time Series Analysis [7.979501926410114]
ConvTimeNetは時系列解析のために設計された階層的な純粋な畳み込みモデルである。
データ駆動方式で時間依存の基本単位の局所パターンを適応的に知覚する。
大規模なカーネル機構を使用して、畳み込みブロックが深く積み重ねられるようにする。
論文 参考訳(メタデータ) (2024-03-03T12:05:49Z) - MEMTO: Memory-guided Transformer for Multivariate Time Series Anomaly
Detection [6.16984478518058]
MEMTOはメモリ誘導トランスフォーマーで、入力データに応じて各メモリ項目が更新される度合いを学習する。
提案手法は,多様な領域から得られた5つの実世界のデータセットに対して評価する。
論文 参考訳(メタデータ) (2023-12-05T06:28:19Z) - Adaptive Memory Networks with Self-supervised Learning for Unsupervised
Anomaly Detection [54.76993389109327]
教師なし異常検出は、通常のデータのみをトレーニングすることで、目に見えない異常を検出するモデルを構築することを目的としている。
本稿では,これらの課題に対処するために,自己教師付き学習(AMSL)を用いた適応記憶ネットワーク(Adaptive Memory Network)を提案する。
AMSLには、一般的な正規パターンを学ぶための自己教師付き学習モジュールと、リッチな特徴表現を学ぶための適応型メモリ融合モジュールが組み込まれている。
論文 参考訳(メタデータ) (2022-01-03T03:40:21Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [54.94763543386523]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。