論文の概要: Strong Linear Baselines Strike Back: Closed-Form Linear Models as Gaussian Process Conditional Density Estimators for TSAD
- arxiv url: http://arxiv.org/abs/2602.00672v1
- Date: Sat, 31 Jan 2026 11:35:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.329695
- Title: Strong Linear Baselines Strike Back: Closed-Form Linear Models as Gaussian Process Conditional Density Estimators for TSAD
- Title(参考訳): 強い線形ベースラインが後退する: TSADのガウス過程条件密度推定器としての閉形式線形モデル
- Authors: Aleksandr Yugay, Hang Cui, Changhua Pei, Alexey Zaytsev,
- Abstract要約: 本研究は,OLS回帰法により得られる閉形式解を用いた単純な線形自己回帰異常スコアが,最先端の深部検出器と一貫して一致し,より優れることを示す。
理論的な観点から、線形モデルは、有限歴史ガウス過程条件密度を推定し、幅広い種類の異常型を捉えていることを示す。
- 参考スコア(独自算出の注目度): 41.074068820031655
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Research in time series anomaly detection (TSAD) has largely focused on developing increasingly sophisticated, hard-to-train, and expensive-to-infer neural architectures. We revisit this paradigm and show that a simple linear autoregressive anomaly score with the closed-form solution provided by ordinary least squares (OLS) regression consistently matches or outperforms state-of-the-art deep detectors. From a theoretical perspective, we show that linear models capture a broad class of anomaly types, estimating a finite-history Gaussian process conditional density. From a practical side, across extensive univariate and multivariate benchmarks, the proposed approach achieves superior accuracy while requiring orders of magnitude fewer computational resources. Thus, future research should consistently include strong linear baselines and, more importantly, develop new benchmarks with richer temporal structures pinpointing the advantages of deep learning models.
- Abstract(参考訳): 時系列異常検出(TSAD)の研究は、ますます洗練され、訓練が難しく、高価なニューラルネットワークアーキテクチャの開発に重点を置いている。
我々はこのパラダイムを再考し、通常の最小二乗回帰(OLS)による閉形式解による単純な線形自己回帰異常スコアが、最先端の深度検出器と一貫して一致または優れることを示す。
理論的な観点から、線形モデルは、有限歴史ガウス過程条件密度を推定し、幅広い種類の異常型を捉えていることを示す。
実用面では、広範囲な単変量および多変量ベンチマークにおいて、提案手法は計算資源の桁数を桁違いに減らしながら優れた精度を達成する。
したがって、将来の研究には、強い線形ベースラインが一貫して含まれ、さらに重要なのは、深層学習モデルの利点を浮き彫りにした、より豊かな時間構造を持つ新しいベンチマークを開発するべきである。
関連論文リスト
- Towards Foundation Models for Zero-Shot Time Series Anomaly Detection: Leveraging Synthetic Data and Relative Context Discrepancy [33.68487894996624]
時系列異常検出(TSAD)は重要な課題であるが、見えないデータに一般化するモデルを開発することは大きな課題である。
我々は、新しい事前学習パラダイムの上に構築されたTSADの新たな基盤モデルであるtextttTimeRCDを紹介した。
textttTimeRCD はゼロショット TSAD において,既存の汎用および異常固有の基盤モデルよりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2025-09-25T14:05:15Z) - Interpretable Deep Regression Models with Interval-Censored Failure Time Data [1.2993568435938014]
間隔制限付きデータの深層学習手法は、まだ探索が過小評価されており、特定のデータタイプやモデルに限られている。
本研究は、部分線形変換モデルの幅広いクラスを持つ区間知覚データに対する一般的な回帰フレームワークを提案する。
我々の手法をアルツハイマー病神経イメージングイニシアチブデータセットに適用すると、従来のアプローチと比較して新しい洞察と予測性能が向上する。
論文 参考訳(メタデータ) (2025-03-25T15:27:32Z) - In-Context Linear Regression Demystified: Training Dynamics and Mechanistic Interpretability of Multi-Head Softmax Attention [52.159541540613915]
本研究では,マルチヘッド型ソフトマックスアテンションモデルを用いて,線形データを用いたコンテキスト内学習を行う方法について検討する。
この結果から,学習内容の学習能力は,そのアーキテクチャと基礎となるデータ分布の集約的効果として,訓練されたトランスフォーマーから出現することが明らかとなった。
論文 参考訳(メタデータ) (2025-03-17T02:00:49Z) - Theory-guided Pseudo-spectral Full Waveform Inversion via Deep Neural Networks [0.0]
フルウェーブフォーム・インバージョンは、地下の高分解能モデルの実現を目指している。
優れた最適化フレームワークとしてディープラーニング技術が登場した。
この研究は、ディープラーニングに擬似スペクトルアプローチを組み込む際に存在するラグナに対処する。
論文 参考訳(メタデータ) (2025-02-24T20:18:55Z) - Data-Driven Pseudo-spectral Full Waveform Inversion via Deep Neural Networks [0.0]
擬似スペクトルFWI問題をデータ駆動型擬似スペクトルアプローチのためのディープラーニングアルゴリズムとして再定式化する。
データ駆動型擬似スペクトルの逆転は、深部および過スラスト領域において古典的FWIよりも優れていた。
論文 参考訳(メタデータ) (2025-02-24T19:50:36Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z) - Goal-directed Generation of Discrete Structures with Conditional
Generative Models [85.51463588099556]
本稿では,強化学習目標を直接最適化し,期待される報酬を最大化するための新しいアプローチを提案する。
提案手法は、ユーザ定義プロパティを持つ分子の生成と、所定の目標値を評価する短いピソン表現の同定という2つのタスクで検証する。
論文 参考訳(メタデータ) (2020-10-05T20:03:13Z) - Multiplicative noise and heavy tails in stochastic optimization [62.993432503309485]
経験的最適化は現代の機械学習の中心であるが、その成功における役割はまだ不明である。
分散による離散乗法雑音のパラメータによく現れることを示す。
最新のステップサイズやデータを含む重要な要素について、詳細な分析を行い、いずれも最先端のニューラルネットワークモデルで同様の結果を示す。
論文 参考訳(メタデータ) (2020-06-11T09:58:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。