論文の概要: Explanation Space: A New Perspective into Time Series Interpretability
- arxiv url: http://arxiv.org/abs/2409.01354v2
- Date: Thu, 5 Sep 2024 02:00:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 12:28:47.658057
- Title: Explanation Space: A New Perspective into Time Series Interpretability
- Title(参考訳): 説明空間: 時系列解釈可能性の新しい視点
- Authors: Shahbaz Rezaei, Xin Liu,
- Abstract要約: 本稿では,時間領域で訓練されたモデルを他の説明空間で解釈できる簡易かつ効果的な手法を提案する。
トレーニングされたモデルやXAIメソッドを変更することなく,既存のプラットフォームで簡単に適用することができる。
- 参考スコア(独自算出の注目度): 7.511097243300029
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human understandable explanation of deep learning models is necessary for many critical and sensitive applications. Unlike image or tabular data where the importance of each input feature (for the classifier's decision) can be directly projected into the input, time series distinguishable features (e.g. dominant frequency) are often hard to manifest in time domain for a user to easily understand. Moreover, most explanation methods require a baseline value as an indication of the absence of any feature. However, the notion of lack of feature, which is often defined as black pixels for vision tasks or zero/mean values for tabular data, is not well-defined in time series. Despite the adoption of explainable AI methods (XAI) from tabular and vision domain into time series domain, these differences limit the application of these XAI methods in practice. In this paper, we propose a simple yet effective method that allows a model originally trained on time domain to be interpreted in other explanation spaces using existing methods. We suggest four explanation spaces that each can potentially alleviate these issues in certain types of time series. Our method can be readily adopted in existing platforms without any change to trained models or XAI methods. The code is available at https://github.com/shrezaei/TS-X-spaces.
- Abstract(参考訳): 深層学習モデルの人間による理解可能な説明は、多くの重要かつ敏感なアプリケーションに必要である。
各入力特徴(分類器の決定のために)の重要性を直接入力に投影できる画像や表データとは異なり、時系列識別可能な特徴(例えば支配周波数)は、ユーザが容易に理解できる時間領域に現れにくいことが多い。
さらに、ほとんどの説明手法は、どんな特徴も欠如していることを示す指標として基準値を必要とする。
しかしながら、視覚タスクのブラックピクセルや表データのゼロ/平均値として定義される特徴の欠如の概念は、時系列ではよく定義されていない。
表と視覚ドメインから時系列ドメインへの説明可能なAIメソッド(XAI)の採用にもかかわらず、これらの違いは実際にはこれらのXAIメソッドの適用を制限する。
本稿では,既存の手法を用いて時間領域で訓練されたモデルを他の説明空間で解釈できる簡易かつ効果的な手法を提案する。
それぞれが特定の時系列でこれらの問題を緩和できる4つの説明空間を提案する。
トレーニングされたモデルやXAIメソッドを変更することなく,既存のプラットフォームで簡単に適用することができる。
コードはhttps://github.com/shrezaei/TS-X-spacesで入手できる。
関連論文リスト
- Time is Not Enough: Time-Frequency based Explanation for Time-Series Black-Box Models [12.575427166236844]
時系列ブラックボックス分類器の時間周波数説明を提供するXAIフレームワークであるSpectral eXplanation(SpectralX)を提案する。
また,新しい摂動型XAI法であるFeature Importance Approximations (FIA)を導入する。
論文 参考訳(メタデータ) (2024-08-07T08:51:10Z) - Explaining time series models using frequency masking [10.706092195673255]
時系列データは、医療、金融、気候など多くの重要な領域を記述する上で重要である。
正当性マップを得るための現在の方法は、生の入力空間における局所的な情報を仮定する。
本稿では、FreqRISEを提案する。FreqRISEは、マスキングに基づく手法を用いて、周波数領域と時間周波数領域の説明を生成する。
論文 参考訳(メタデータ) (2024-06-19T14:19:59Z) - Premonition: Using Generative Models to Preempt Future Data Changes in
Continual Learning [63.850451635362425]
継続的な学習には、データ分散の継続的な変化に対応するためのモデルが必要である。
本稿では,大規模言語モデルと画像生成モデルの組み合わせが有用であることを示す。
トレーニング済みネットワークのバックボーンは、下流の連続学習問題に有用な表現を学習できることがわかった。
論文 参考訳(メタデータ) (2024-03-12T06:29:54Z) - Explainable AI for Time Series via Virtual Inspection Layers [11.879170124003252]
本研究では,時系列を解釈可能な表現に変換する仮想検査層を提案する。
このようにして、XAIメソッドのファミリーの適用性を、変換後にのみ入力が解釈可能な領域(例えば、音声)に拡張する。
音声や電子カルテなどの時系列分類におけるDFT-LRPの有用性を示す。
論文 参考訳(メタデータ) (2023-03-11T10:20:47Z) - ALSO: Automotive Lidar Self-supervision by Occupancy estimation [70.70557577874155]
本稿では,ポイントクラウド上で動作している深層知覚モデルのバックボーンを事前学習するための自己教師型手法を提案する。
中心となる考え方は、3Dポイントがサンプリングされる表面の再構成であるプリテキストタスクでモデルをトレーニングすることである。
直感的には、もしネットワークがわずかな入力ポイントのみを考慮し、シーン表面を再構築できるなら、おそらく意味情報の断片をキャプチャする。
論文 参考訳(メタデータ) (2022-12-12T13:10:19Z) - TimeREISE: Time-series Randomized Evolving Input Sample Explanation [5.557646286040063]
TimeREISEは時系列分類の文脈において、特に成功に対応するモデル属性法である。
本手法は, 既往の高精度な測定方法と比較して, 優れた性能を示す。
論文 参考訳(メタデータ) (2022-02-16T09:40:13Z) - Time Series Analysis via Network Science: Concepts and Algorithms [62.997667081978825]
本稿では,時系列をネットワークに変換する既存のマッピング手法について概観する。
我々は、主要な概念的アプローチを説明し、権威的な参照を提供し、統一された表記法と言語におけるそれらの利点と限界について洞察を与える。
ごく最近の研究だが、この研究領域には大きな可能性を秘めており、今後の研究の道を開くことを目的としている。
論文 参考訳(メタデータ) (2021-10-11T13:33:18Z) - Explainable Artificial Intelligence (XAI) on TimeSeries Data: A Survey [7.211834628554803]
時系列に適用される既存の説明可能なAI(XAI)手法の概要を紹介します。
また、これらの説明方法の影響を反映し、AIシステムに信頼と信頼を提供します。
論文 参考訳(メタデータ) (2021-04-02T09:14:00Z) - Visualising Deep Network's Time-Series Representations [93.73198973454944]
機械学習モデルの普及にもかかわらず、多くの場合、モデルの内部で起きていることに関する洞察のないブラックボックスとして運用される。
本稿では,多次元時系列データの可視化に着目し,この問題に対処する手法を提案する。
高周波在庫市場データセットの実験は、この方法が迅速かつ識別可能な可視化を提供することを示しています。
論文 参考訳(メタデータ) (2021-03-12T09:53:34Z) - On the Post-hoc Explainability of Deep Echo State Networks for Time
Series Forecasting, Image and Video Classification [63.716247731036745]
エコー状態ネットワークは、主に学習アルゴリズムの単純さと計算効率のために、時間を通じて多くのスターを惹きつけてきた。
本研究では,時間系列,画像,映像データを用いた学習タスクに適用した場合のエコー状態ネットワークの説明可能性について検討した。
本研究では,これらの反復モデルが把握した知識に関する理解可能な情報を抽出する3つの手法を提案する。
論文 参考訳(メタデータ) (2021-02-17T08:56:33Z) - Connecting the Dots: Multivariate Time Series Forecasting with Graph
Neural Networks [91.65637773358347]
多変量時系列データに特化して設計された汎用グラフニューラルネットワークフレームワークを提案する。
グラフ学習モジュールを用いて,変数間の一方向関係を自動的に抽出する。
提案手法は,4つのベンチマークデータセットのうち3つにおいて,最先端のベースライン手法よりも優れている。
論文 参考訳(メタデータ) (2020-05-24T04:02:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。