論文の概要: TS-MULE: Local Interpretable Model-Agnostic Explanations for Time Series
Forecast Models
- arxiv url: http://arxiv.org/abs/2109.08438v1
- Date: Fri, 17 Sep 2021 10:00:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-20 20:08:01.322175
- Title: TS-MULE: Local Interpretable Model-Agnostic Explanations for Time Series
Forecast Models
- Title(参考訳): TS-MULE:時系列予測モデルに対する局所解釈可能なモデルに依存しない説明
- Authors: Udo Schlegel, Duy Vo Lam, Daniel A. Keim, Daniel Seebacher
- Abstract要約: 時系列予測は、最先端のパフォーマンスを達成するブラックボックスモデルによる天気から故障予測まで、要求されるタスクである。
LIME アプローチを拡張する時系列に特有な局所代理モデル記述法である TS-MULE を提案する。
- 参考スコア(独自算出の注目度): 14.445052300196929
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Time series forecasting is a demanding task ranging from weather to failure
forecasting with black-box models achieving state-of-the-art performances.
However, understanding and debugging are not guaranteed. We propose TS-MULE, a
local surrogate model explanation method specialized for time series extending
the LIME approach. Our extended LIME works with various ways to segment and
perturb the time series data. In our extension, we present six sampling
segmentation approaches for time series to improve the quality of surrogate
attributions and demonstrate their performances on three deep learning model
architectures and three common multivariate time series datasets.
- Abstract(参考訳): 時系列予測は、最先端のパフォーマンスを達成するブラックボックスモデルによる天気から故障予測まで、必要なタスクである。
しかし、理解とデバッグは保証されない。
LIME アプローチを拡張する時系列に特有な局所代理モデル記述法である TS-MULE を提案する。
我々の拡張LIMEは時系列データを分割し摂動する様々な方法で動作します。
本稿では,サロゲートアトリビューションの品質を向上させるために,時系列の6つのサンプリングセグメンテーション手法を提案し,その性能を3つのディープラーニングモデルアーキテクチャと3つの共通多変量時系列データセットで実証する。
関連論文リスト
- Unified Training of Universal Time Series Forecasting Transformers [110.79681024473159]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - Timer: Transformers for Time Series Analysis at Scale [87.9808714449511]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - Large Language Models Are Zero-Shot Time Series Forecasters [53.24444237828548]
時系列を数値桁の列として符号化することにより、テキストの次トーケン予測として時系列予測をフレーム化することができる。
GPT-3 や LLaMA-2 のような大規模言語モデル (LLM) は、ダウンストリームタスクでトレーニングされた目的構築された時系列モデルの性能に匹敵する、あるいはそれ以上のレベルにおいて、驚くほどゼロショット・エクスポレート・時系列を生成できる。
論文 参考訳(メタデータ) (2023-10-11T19:01:28Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z) - Forecasting large collections of time series: feature-based methods [7.353918137830393]
時系列の膨大なコレクションを予測する場合,時系列特徴量を用いて2行のアプローチが開発されている。
この章では、オープンソースのソフトウェア実装を参照しながら、最先端の機能ベースのメソッドについて論じます。
論文 参考訳(メタデータ) (2023-09-25T01:23:02Z) - Generative Time Series Forecasting with Diffusion, Denoise, and
Disentanglement [51.55157852647306]
時系列予測は多くのアプリケーションにおいて非常に重要な課題である。
実世界の時系列データが短時間に記録されることが一般的であり、これはディープモデルと限られたノイズのある時系列との間に大きなギャップをもたらす。
本稿では,生成モデルを用いた時系列予測問題に対処し,拡散,雑音,ゆがみを備えた双方向変分自動エンコーダを提案する。
論文 参考訳(メタデータ) (2023-01-08T12:20:46Z) - TFAD: A Decomposition Time Series Anomaly Detection Architecture with
Time-Frequency Analysis [12.867257563413972]
時系列異常検出は、複雑な時間的依存と限られたラベルデータのために難しい問題である。
本稿では,時間領域と周波数領域の両方を利用した時間周波数解析に基づく時系列異常検出モデル(TFAD)を提案する。
論文 参考訳(メタデータ) (2022-10-18T09:08:57Z) - An Unsupervised Short- and Long-Term Mask Representation for
Multivariate Time Series Anomaly Detection [2.387411589813086]
本稿では,教師なし短時間・長期マスク表現学習(SLMR)に基づく異常検出手法を提案する。
実験により,本手法の性能は,実世界の3つのデータセットにおいて,他の最先端モデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2022-08-19T09:34:11Z) - Multi-scale Attention Flow for Probabilistic Time Series Forecasting [68.20798558048678]
マルチスケールアテンション正規化フロー(MANF)と呼ばれる非自己回帰型ディープラーニングモデルを提案する。
我々のモデルは累積誤差の影響を回避し、時間の複雑さを増大させない。
本モデルは,多くの多変量データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-05-16T07:53:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。