論文の概要: Encoding Time-Series Explanations through Self-Supervised Model Behavior
Consistency
- arxiv url: http://arxiv.org/abs/2306.02109v1
- Date: Sat, 3 Jun 2023 13:25:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 20:05:15.543277
- Title: Encoding Time-Series Explanations through Self-Supervised Model Behavior
Consistency
- Title(参考訳): 自己監督型モデル行動一貫性による時系列記述の符号化
- Authors: Owen Queen, Thomas Hartvigsen, Teddy Koker, Huan He, Theodoros
Tsiligkaridis, Marinka Zitnik
- Abstract要約: トレーニング説明書の時系列一貫性モデルであるTimeXを提案する。
TimeXは、事前訓練された時系列モデルの振る舞いを模倣するために解釈可能なサロゲートを訓練する。
我々は8つの合成および実世界のデータセット上でTimeXを評価し、その性能を最先端の解釈可能性手法と比較した。
- 参考スコア(独自算出の注目度): 20.721685768504486
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Interpreting time series models is uniquely challenging because it requires
identifying both the location of time series signals that drive model
predictions and their matching to an interpretable temporal pattern. While
explainers from other modalities can be applied to time series, their inductive
biases do not transfer well to the inherently uninterpretable nature of time
series. We present TimeX, a time series consistency model for training
explainers. TimeX trains an interpretable surrogate to mimic the behavior of a
pretrained time series model. It addresses the issue of model faithfulness by
introducing model behavior consistency, a novel formulation that preserves
relations in the latent space induced by the pretrained model with relations in
the latent space induced by TimeX. TimeX provides discrete attribution maps
and, unlike existing interpretability methods, it learns a latent space of
explanations that can be used in various ways, such as to provide landmarks to
visually aggregate similar explanations and easily recognize temporal patterns.
We evaluate TimeX on 8 synthetic and real-world datasets and compare its
performance against state-of-the-art interpretability methods. We also conduct
case studies using physiological time series. Quantitative evaluations
demonstrate that TimeX achieves the highest or second-highest performance in
every metric compared to baselines across all datasets. Through case studies,
we show that the novel components of TimeX show potential for training
faithful, interpretable models that capture the behavior of pretrained time
series models.
- Abstract(参考訳): 時系列モデルの解釈は、モデル予測を駆動する時系列信号の位置と解釈可能な時間パターンとのマッチングの両方を特定する必要があるため、一意に難しい。
他のモダリティからの説明は時系列に適用できるが、その帰納バイアスは本質的に解釈不能な時系列の性質にうまく移行しない。
トレーニング説明書の時系列一貫性モデルであるTimeXを提案する。
TimeXは、事前訓練された時系列モデルの振る舞いを模倣するために解釈可能なサロゲートを訓練する。
モデル行動整合性(モデル行動整合性、英: model behavior consistency)は、事前訓練されたモデルによって誘導される潜在空間と、TimeXによって誘導される潜在空間の関係を保存する新しい定式化である。
TimeXは個別の属性マップを提供し、既存の解釈可能性法とは異なり、同様の説明を視覚的に集約し、時間的パターンを容易に認識するランドマークを提供するなど、様々な方法で使用できる説明の潜在空間を学習する。
我々は8つの合成および実世界のデータセット上でTimeXを評価し、その性能を最先端の解釈可能性手法と比較した。
また,生理的時系列を用いたケーススタディも実施する。
定量的評価では、TimeXは、すべてのデータセットのベースラインと比較して、各メトリックで最高または2番目に高いパフォーマンスを達成する。
ケーススタディを通じて,事前学習された時系列モデルの挙動を捉えた,忠実で解釈可能なモデルの訓練の可能性を示す。
関連論文リスト
- Moirai-MoE: Empowering Time Series Foundation Models with Sparse Mixture of Experts [103.725112190618]
本稿では,単一入出力プロジェクション層を用いたMoirai-MoEを紹介するとともに,多種多様な時系列パターンのモデリングを専門家の疎結合に委ねる。
39のデータセットに対する大規模な実験は、既存の基盤モデルよりも、分配シナリオとゼロショットシナリオの両方において、Moirai-MoEの優位性を実証している。
論文 参考訳(メタデータ) (2024-10-14T13:01:11Z) - TimeSiam: A Pre-Training Framework for Siamese Time-Series Modeling [67.02157180089573]
時系列事前トレーニングは、最近、ラベルのコストを削減し、下流の様々なタスクに利益をもたらす可能性があるとして、広く注目を集めている。
本稿では,シームズネットワークに基づく時系列の簡易かつ効果的な自己教師型事前学習フレームワークとしてTimeSiamを提案する。
論文 参考訳(メタデータ) (2024-02-04T13:10:51Z) - On the Consistency and Robustness of Saliency Explanations for Time
Series Classification [4.062872727927056]
時系列ウィンドウを画像として解釈するために、サリエンシマップが適用されている。
本稿では,時系列の特徴と時間的属性に対するサリエンシマップの一貫性とロバスト性について広く分析する。
論文 参考訳(メタデータ) (2023-09-04T09:08:22Z) - Self-Interpretable Time Series Prediction with Counterfactual
Explanations [4.658166900129066]
解釈可能な時系列予測は、医療や自動運転といった安全上重要な分野において重要である。
既存の手法の多くは、重要なスコアを時系列のセグメントに割り当てることで予測を解釈することに集中している。
我々は,時系列予測のための非現実的かつ実用的な説明を生成する,CounTS(Counfactual Time Series)と呼ばれる自己解釈可能なモデルを開発した。
論文 参考訳(メタデータ) (2023-06-09T16:42:52Z) - TempSAL -- Uncovering Temporal Information for Deep Saliency Prediction [64.63645677568384]
本稿では,逐次時間間隔でサリエンシマップを出力する新たなサリエンシ予測モデルを提案する。
提案手法は,学習した時間マップを組み合わせることで,サリエンシ予測を局所的に調整する。
私たちのコードはGitHubで公開されます。
論文 参考訳(メタデータ) (2023-01-05T22:10:16Z) - Learning to Reconstruct Missing Data from Spatiotemporal Graphs with
Sparse Observations [11.486068333583216]
本稿では、欠落したデータポイントを再構築するための効果的なモデル学習の課題に取り組む。
我々は,高度にスパースな観測値の集合を与えられた注意に基づくアーキテクチャのクラスを提案し,時間と空間における点の表現を学習する。
技術状況と比較して、我々のモデルは予測エラーを伝播したり、前方および後方の時間依存性をエンコードするために双方向モデルを必要とすることなくスパースデータを処理します。
論文 参考訳(メタデータ) (2022-05-26T16:40:48Z) - Multi-scale Attention Flow for Probabilistic Time Series Forecasting [68.20798558048678]
マルチスケールアテンション正規化フロー(MANF)と呼ばれる非自己回帰型ディープラーニングモデルを提案する。
我々のモデルは累積誤差の影響を回避し、時間の複雑さを増大させない。
本モデルは,多くの多変量データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-05-16T07:53:42Z) - Model-Attentive Ensemble Learning for Sequence Modeling [86.4785354333566]
シーケンスモデリング(MAES)のためのモデル・アテンティブ・アンサンブル・ラーニングを提案する。
MAESは、異なるシーケンスダイナミクスの専門家を専門とし、予測を適応的に重み付けるために、注目ベースのゲーティングメカニズムを利用する時系列の専門家の混合物です。
MAESが時系列シフトを受けるデータセットの人気シーケンスモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2021-02-23T05:23:35Z) - Synergetic Learning of Heterogeneous Temporal Sequences for
Multi-Horizon Probabilistic Forecasting [48.8617204809538]
本稿では,新しい条件生成モデルである変分相乗型マルチホライゾンネットワーク(VSMHN)を提案する。
不均一なシーケンス間で複雑な相関関係を学習するために、深部プロセスモデルと変動的リカレントニューラルネットワークの進歩を組み合わせるために、調整されたエンコーダが考案された。
我々のモデルは変動予測を用いて効果的に訓練でき、モンテカルロシミュレーションを用いて予測を生成することができる。
論文 参考訳(メタデータ) (2021-01-31T11:00:55Z) - timeXplain -- A Framework for Explaining the Predictions of Time Series
Classifiers [3.6433472230928428]
本稿では,時間領域,周波数領域,時系列統計に関する新しいドメインマッピングを提案する。
我々は彼らの説明力と限界を分析する。
我々は、TimeXplainといくつかのモデル固有の説明手法を実験的に比較するために、新しい評価基準を用いる。
論文 参考訳(メタデータ) (2020-07-15T10:32:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。