論文の概要: Probing the Robustness of Time-series Forecasting Models with
CounterfacTS
- arxiv url: http://arxiv.org/abs/2403.03508v1
- Date: Wed, 6 Mar 2024 07:34:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-07 15:55:31.464147
- Title: Probing the Robustness of Time-series Forecasting Models with
CounterfacTS
- Title(参考訳): CounterfacTS を用いた時系列予測モデルのロバスト性検証
- Authors: H{\aa}kon Hanisch Kj{\ae}rnli, Lluis Mas-Ribas, Aida Ashrafi, Gleb
Sizov, Helge Langseth and Odd Erik Gundersen
- Abstract要約: 我々は,時系列予測タスクにおけるディープラーニングモデルの堅牢性を調査するツールであるCounterfacTSを提示し,公開する。
CounterfacTSにはユーザフレンドリーなインターフェースがあり、時系列データとその予測を視覚化、比較、定量化することができる。
- 参考スコア(独自算出の注目度): 1.823020744088554
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A common issue for machine learning models applied to time-series forecasting
is the temporal evolution of the data distributions (i.e., concept drift).
Because most of the training data does not reflect such changes, the models
present poor performance on the new out-of-distribution scenarios and,
therefore, the impact of such events cannot be reliably anticipated ahead of
time. We present and publicly release CounterfacTS, a tool to probe the
robustness of deep learning models in time-series forecasting tasks via
counterfactuals. CounterfacTS has a user-friendly interface that allows the
user to visualize, compare and quantify time series data and their forecasts,
for a number of datasets and deep learning models. Furthermore, the user can
apply various transformations to the time series and explore the resulting
changes in the forecasts in an interpretable manner. Through example cases, we
illustrate how CounterfacTS can be used to i) identify the main features
characterizing and differentiating sets of time series, ii) assess how the
model performance depends on these characateristics, and iii) guide
transformations of the original time series to create counterfactuals with
desired properties for training and increasing the forecasting performance in
new regions of the data distribution. We discuss the importance of visualizing
and considering the location of the data in a projected feature space to
transform time-series and create effective counterfactuals for training the
models. Overall, CounterfacTS aids at creating counterfactuals to efficiently
explore the impact of hypothetical scenarios not covered by the original data
in time-series forecasting tasks.
- Abstract(参考訳): 時系列予測に適用される機械学習モデルの一般的な問題は、データ分布(すなわち概念ドリフト)の時間的発展である。
トレーニングデータの多くはこのような変更を反映しないため、新たなアウトオブディストリビューションシナリオではパフォーマンスが低くなるため、その影響を事前に確実に予測することはできない。
我々は、時系列予測タスクにおいて、ディープラーニングモデルの堅牢性を調査するツールであるCounterfacTSを提示し、公開している。
CounterfacTSにはユーザフレンドリなインターフェースがあり、多くのデータセットやディープラーニングモデルに対して、時系列データとその予測を視覚化、比較、定量化することができる。
さらに、ユーザは時系列に様々な変換を適用し、その結果の予測の変化を解釈可能な方法で探索することができる。
例を通して、CounterfacTSの使い方を説明します。
一 時系列の集合を特徴づけて区別する主な特徴を識別すること。
二 モデルの性能がこれらの特性に依存するかの評価及び
三 当初の時系列のガイド変換により、データ配信の新しい領域において、トレーニング及び予測性能を高めるために所望の特質を有する偽物を作成する。
本稿では,時系列を変換し,モデルのトレーニングに効果的な反事実を作成するために,投影特徴空間におけるデータの位置を可視化し,考慮することの重要性について論じる。
全体として、カウンターファクトは、時系列予測タスクで元のデータでカバーされない仮説的シナリオの影響を効率的に探求するために、反事実を作成するのに役立つ。
関連論文リスト
- TimeInf: Time Series Data Contribution via Influence Functions [8.018453062120916]
TimeInfは時系列データセットのデータコントリビューション推定手法である。
実験の結果、TimeInfは有害な異常を識別する最先端の手法より優れていることが示された。
TimeInfはデータ値の直感的かつ解釈可能な属性を提供しており、視覚化によって様々な異常パターンを容易に識別することができる。
論文 参考訳(メタデータ) (2024-07-21T19:10:40Z) - Scaling Law for Time Series Forecasting [8.967263259533036]
大規模データセット、複雑なモデル、強化されたデータの粒度に報いるスケーリング法則は、ディープラーニングの様々な分野において観察されている。
しかし、時系列予測の研究は、時系列予測のためのディープラーニング手法のスケーリング行動に疑問を投げかけている。
本稿では,このような異常な振る舞いを説明できる時系列予測法則のスケーリング理論を提案する。
論文 参考訳(メタデータ) (2024-05-24T00:46:27Z) - TimeGPT in Load Forecasting: A Large Time Series Model Perspective [38.92798207166188]
機械学習モデルは、負荷予測に大きな進歩を遂げているが、過去の負荷データが不足している場合に、その予測精度は制限されている。
本稿では,負荷予測における時系列モデルの可能性について考察する。
論文 参考訳(メタデータ) (2024-04-07T09:05:09Z) - Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - TimeSiam: A Pre-Training Framework for Siamese Time-Series Modeling [67.02157180089573]
時系列事前トレーニングは、最近、ラベルのコストを削減し、下流の様々なタスクに利益をもたらす可能性があるとして、広く注目を集めている。
本稿では,シームズネットワークに基づく時系列の簡易かつ効果的な自己教師型事前学習フレームワークとしてTimeSiamを提案する。
論文 参考訳(メタデータ) (2024-02-04T13:10:51Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - Performative Time-Series Forecasting [71.18553214204978]
我々は,機械学習の観点から,パフォーマンス時系列予測(PeTS)を定式化する。
本稿では,予測分布シフトに対する遅延応答の概念を活用する新しい手法であるFeature Performative-Shifting(FPS)を提案する。
新型コロナウイルスの複数の時系列モデルと交通予報タスクを用いた総合的な実験を行った。
論文 参考訳(メタデータ) (2023-10-09T18:34:29Z) - TACTiS: Transformer-Attentional Copulas for Time Series [76.71406465526454]
時間変化量の推定は、医療や金融などの分野における意思決定の基本的な構成要素である。
本稿では,アテンションベースデコーダを用いて関節分布を推定する多元的手法を提案する。
本研究では,本モデルが実世界の複数のデータセットに対して最先端の予測を生成することを示す。
論文 参考訳(メタデータ) (2022-02-07T21:37:29Z) - Self-Adaptive Forecasting for Improved Deep Learning on Non-Stationary
Time-Series [20.958959332978726]
SAFは、バックキャストに基づく予測に先立って自己適応段階を統合する」
提案手法は,符号化された表現を進化する分布に効率よく適応させることにより,より優れた一般化を実現する。
時系列データが医療や金融などの非定常性で知られる領域における合成および実世界のデータセットについて、SAFの顕著なメリットを実証する。
論文 参考訳(メタデータ) (2022-02-04T21:54:10Z) - Learning Non-Stationary Time-Series with Dynamic Pattern Extractions [16.19692047595777]
最先端のアルゴリズムは、定常時間データを扱う上で、優れたパフォーマンスを実現している。
定常時系列に対処する伝統的なアルゴリズムは、Forexトレーディングのような静止しないシリーズには適用されない。
本稿では,非定常時系列列の予測の精度を向上する適用モデルについて検討する。
論文 参考訳(メタデータ) (2021-11-20T10:52:37Z) - Transformer Hawkes Process [79.16290557505211]
本稿では,長期的依存関係を捕捉する自己認識機構を利用したTransformer Hawkes Process (THP) モデルを提案する。
THPは、有意なマージンによる可能性と事象予測の精度の両方の観点から、既存のモデルより優れている。
本稿では、THPが関係情報を組み込む際に、複数の点過程を学習する際の予測性能の改善を実現する具体例を示す。
論文 参考訳(メタデータ) (2020-02-21T13:48:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。