論文の概要: Pi-Transformer: A Physics-informed Attention Mechanism for Time Series Anomaly Detection
- arxiv url: http://arxiv.org/abs/2509.19985v1
- Date: Wed, 24 Sep 2025 10:47:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.781535
- Title: Pi-Transformer: A Physics-informed Attention Mechanism for Time Series Anomaly Detection
- Title(参考訳): Pi変換器:時系列異常検出のための物理インフォームドアテンション機構
- Authors: Sepehr Maleki, Negar Pourmoazemi,
- Abstract要約: 2つの注意経路を持つ物理インフォーム変換器であるPi-Transformerを提案する。
このモデルは、アライメント重み付けされた再構成信号と、タイミングと位相破壊を強調するミスマッチ信号を組み合わせる。
Pi-Transformerは最先端または競争性の高いF1を実現し、特にタイミングと位相破壊異常に強い。
- 参考スコア(独自算出の注目度): 3.8673630752805437
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Anomalies in multivariate time series often arise from temporal context and cross-channel coordination rather than isolated outliers. We present Pi-Transformer, a physics-informed transformer with two attention pathways: a data-driven series attention and a smoothly evolving prior attention that encodes temporal invariants such as scale-related self-similarity and phase synchrony. The prior acts as a stable reference that calibrates reconstruction error. During training, we pair a reconstruction objective with a divergence term that encourages agreement between the two attentions while keeping them meaningfully distinct; the prior is regularised to evolve smoothly and is lightly distilled towards dataset-level statistics. At inference, the model combines an alignment-weighted reconstruction signal (Energy) with a mismatch signal that highlights timing and phase disruptions, and fuses them into a single score for detection. Across five benchmarks (SMD, MSL, SMAP, SWaT, and PSM), Pi-Transformer achieves state-of-the-art or highly competitive F1, with particular strength on timing and phase-breaking anomalies. Case analyses show complementary behaviour of the two streams and interpretable detections around regime changes. Embedding physics-informed priors into attention yields a calibrated and robust approach to anomaly detection in complex multivariate systems. Code is publicly available at this GitHub repository\footnote{https://github.com/sepehr-m/Pi-Transformer}.
- Abstract(参考訳): 多変量時系列の異常は、孤立した外れ値ではなく、時間的文脈とチャネル間の調整から生じることが多い。
データ駆動シリーズアテンションと,スケール関係の自己相似性や位相同期といった時間的不変性をエンコードするスムーズな事前アテンションという,2つの注意経路を持つ物理インフォーム変換器であるPi-Transformerを提案する。
前者は、復元エラーを校正する安定した参照として機能する。
トレーニング中、我々は2つの注意の一致を促進しつつ意味的に区別し、両者の合意を奨励する分岐項と再構成対象を組み合わせ、前者はスムーズに進化し、データセットレベルの統計値に軽度に蒸留される。
推論では、アライメント重み付けされた再構成信号(Energy)と、タイミングと位相の破壊を強調するミスマッチ信号を組み合わせて、検出のためにそれらを単一のスコアに融合する。
5つのベンチマーク(SMD、MSL、SMAP、SWaT、PSM)において、Pi-Transformerは、タイミングと位相破壊異常に特に強く、最先端または競争性の高いF1を達成する。
ケーススタディでは2つのストリームの相補的挙動と、状態変化に関する解釈可能な検出が示される。
物理インフォームドプリエントを注意に埋め込むことは、複雑な多変量系における異常検出に対する校正的で堅牢なアプローチをもたらす。
コードはGitHubリポジトリのhttps://github.com/sepehr-m/Pi-Transformer}で公開されている。
関連論文リスト
- Integrating Quantum-Classical Attention in Patch Transformers for Enhanced Time Series Forecasting [4.580983642743026]
QCAAPatchTFは、高度なパッチベースの変換器と統合された量子アテンションネットワークである。
量子重ね合わせ、絡み合い、および変分量子固有解法原理を活用すること。
QCAAPatchTFは、長期および短期の予測、分類、異常検出タスクにおいて最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-03-31T17:23:36Z) - MFRS: A Multi-Frequency Reference Series Approach to Scalable and Accurate Time-Series Forecasting [51.94256702463408]
時系列予測は、周波数の異なる周期特性から導かれる。
マルチ周波数参照系列相関解析に基づく新しい時系列予測手法を提案する。
主要なオープンデータセットと合成データセットの実験は、最先端のパフォーマンスを示している。
論文 参考訳(メタデータ) (2025-03-11T11:40:14Z) - A Novel Spatiotemporal Correlation Anomaly Detection Method Based on Time-Frequency-Domain Feature Fusion and a Dynamic Graph Neural Network in Wireless Sensor Network [9.031267813814118]
アテンションベースのトランスフォーマーは、長期依存を捕捉する能力により、無線センサネットワーク(WSN)のタイミング異常検出において重要な役割を担っている。
本稿では,周波数領域の特徴を動的グラフニューラルネットワーク(GNN)と統合したWSN異常検出手法を提案する。
論文 参考訳(メタデータ) (2025-02-25T04:34:18Z) - Multi-Source and Test-Time Domain Adaptation on Multivariate Signals using Spatio-Temporal Monge Alignment [59.75420353684495]
コンピュータビジョンやバイオメディカルデータなどの信号に対する機械学習の応用は、ハードウェアデバイスやセッション記録にまたがる変動のため、しばしば課題に直面している。
本研究では,これらの変動を緩和するために,時空間モンジュアライメント(STMA)を提案する。
我々はSTMAが、非常に異なる設定で取得したデータセット間で、顕著で一貫したパフォーマンス向上をもたらすことを示す。
論文 参考訳(メタデータ) (2024-07-19T13:33:38Z) - Graph Spatiotemporal Process for Multivariate Time Series Anomaly
Detection with Missing Values [67.76168547245237]
本稿では,グラフ時間過程と異常スコアラを用いて異常を検出するGST-Proという新しいフレームワークを提案する。
実験結果から,GST-Pro法は時系列データ中の異常を効果的に検出し,最先端の手法より優れていることがわかった。
論文 参考訳(メタデータ) (2024-01-11T10:10:16Z) - iTransformer: Inverted Transformers Are Effective for Time Series Forecasting [62.40166958002558]
iTransformerを提案する。これは、逆次元に注意とフィードフォワードのネットワークを単純に適用する。
iTransformerモデルは、挑戦的な現実世界のデータセットの最先端を実現する。
論文 参考訳(メタデータ) (2023-10-10T13:44:09Z) - CARD: Channel Aligned Robust Blend Transformer for Time Series
Forecasting [50.23240107430597]
本稿では,CARD(Channel Aligned Robust Blend Transformer)という特殊なトランスを設計する。
まず、CARDはチャネルに沿ったアテンション構造を導入し、信号間の時間的相関をキャプチャする。
第二に、マルチスケール知識を効率的に活用するために、異なる解像度のトークンを生成するトークンブレンドモジュールを設計する。
第3に,潜在的な過度な問題を軽減するため,時系列予測のためのロバストな損失関数を導入する。
論文 参考訳(メタデータ) (2023-05-20T05:16:31Z) - AnomalyBERT: Self-Supervised Transformer for Time Series Anomaly
Detection using Data Degradation Scheme [0.7216399430290167]
時系列、特にラベルなしデータに対する異常検出タスクは、難しい問題である。
自己教師型モデルトレーニングに適切なデータ劣化スキームを適用することで、この問題に対処する。
自己認識機構に触発されて、時間的文脈を認識するトランスフォーマーベースのアーキテクチャを設計する。
論文 参考訳(メタデータ) (2023-05-08T05:42:24Z) - DRAformer: Differentially Reconstructed Attention Transformer for
Time-Series Forecasting [7.805077630467324]
時系列予測は、機器ライフサイクル予測、天気予報、交通フロー予測など、多くの現実シナリオにおいて重要な役割を果たす。
最近の研究から、様々なトランスフォーマーモデルが時系列予測において顕著な結果を示したことが観察できる。
しかし、時系列予測タスクにおけるトランスフォーマーモデルの性能を制限する問題がまだ残っている。
論文 参考訳(メタデータ) (2022-06-11T10:34:29Z) - A Differential Attention Fusion Model Based on Transformer for Time
Series Forecasting [4.666618110838523]
時系列予測は、機器ライフサイクル予測、天気予報、交通流予測などの分野で広く利用されている。
一部の学者は、この強力な並列トレーニング能力のために、Transformerを時系列予測に適用しようと試みている。
既存のTransformerメソッドは、予測において決定的な役割を果たす小さな時間セグメントに十分な注意を払わない。
論文 参考訳(メタデータ) (2022-02-23T10:33:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。