論文の概要: Explainable AI for Time Series via Virtual Inspection Layers
- arxiv url: http://arxiv.org/abs/2303.06365v1
- Date: Sat, 11 Mar 2023 10:20:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-14 19:29:18.974858
- Title: Explainable AI for Time Series via Virtual Inspection Layers
- Title(参考訳): 仮想検査層による時系列用説明可能なAI
- Authors: Johanna Vielhaben, Sebastian Lapuschkin, Gr\'egoire Montavon, Wojciech
Samek
- Abstract要約: 本研究では,時系列を解釈可能な表現に変換する仮想検査層を提案する。
このようにして、XAIメソッドのファミリーの適用性を、変換後にのみ入力が解釈可能な領域(例えば、音声)に拡張する。
音声や電子カルテなどの時系列分類におけるDFT-LRPの有用性を示す。
- 参考スコア(独自算出の注目度): 11.879170124003252
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The field of eXplainable Artificial Intelligence (XAI) has greatly advanced
in recent years, but progress has mainly been made in computer vision and
natural language processing. For time series, where the input is often not
interpretable, only limited research on XAI is available. In this work, we put
forward a virtual inspection layer, that transforms the time series to an
interpretable representation and allows to propagate relevance attributions to
this representation via local XAI methods like layer-wise relevance propagation
(LRP). In this way, we extend the applicability of a family of XAI methods to
domains (e.g. speech) where the input is only interpretable after a
transformation. Here, we focus on the Fourier transformation which is
prominently applied in the interpretation of time series and LRP and refer to
our method as DFT-LRP. We demonstrate the usefulness of DFT-LRP in various time
series classification settings like audio and electronic health records. We
showcase how DFT-LRP reveals differences in the classification strategies of
models trained in different domains (e.g., time vs. frequency domain) or helps
to discover how models act on spurious correlations in the data.
- Abstract(参考訳): eXplainable Artificial Intelligence(XAI)の分野は近年大きく進歩しているが、主にコンピュータビジョンと自然言語処理が進歩している。
入力がしばしば解釈できない時系列の場合、XAIに関する限られた研究のみが利用可能である。
本研究では,時系列を解釈可能な表現に変換する仮想検査層を提案し,レイヤワイド関連伝搬(LRP)のような局所XAI手法を用いて,その表現に対する関連性を伝達する。
このようにして、XAIメソッドのファミリーの適用性を、変換後にのみ入力が解釈可能な領域(例えば、音声)に拡張する。
本稿では,時系列とLRPの解釈に顕著に適用されるフーリエ変換に注目し,本手法をDFT-LRPと呼ぶ。
音声や電子カルテなどの時系列分類におけるDFT-LRPの有用性を示す。
DFT-LRPが、異なる領域(例えば、時間対周波数領域)で訓練されたモデルの分類戦略の違いを明らかにするか、あるいは、モデルがデータの急激な相関にどのように振る舞うかを明らかにする。
関連論文リスト
- STAA: Spatio-Temporal Attention Attribution for Real-Time Interpreting Transformer-based Video Models [7.500941533148728]
トランスフォーマーベースのモデルは、画像やビデオ分析を含む様々なコンピュータビジョンタスクにおいて最先端のパフォーマンスを達成した。
現在の説明可能なAI(XAI)手法は、空間的または時間的説明のいずれにおいても、1次元の特徴的重要性しか提供できない。
本稿では,ビデオトランスフォーマーモデルのXAI手法であるSTAA(Spatio-Temporal Attention Attribution)を紹介する。
論文 参考訳(メタデータ) (2024-11-01T14:40:07Z) - Towards Generalisable Time Series Understanding Across Domains [10.350643783811174]
一般時系列解析のためのオープンモデルであるOTiSを紹介する。
本稿では,学習可能なドメイン固有シグネチャを持つトークンマイザを含む,新しい事前学習パラダイムを提案する。
我々のモデルは、8つの異なるドメインにまたがる640,187個のサンプルと11億個のタイムポイントからなる大規模なコーパスで事前訓練されている。
論文 参考訳(メタデータ) (2024-10-09T17:09:30Z) - DRFormer: Multi-Scale Transformer Utilizing Diverse Receptive Fields for Long Time-Series Forecasting [3.420673126033772]
本稿では,動的スパース学習アルゴリズムを用いた動的トークン化手法を提案する。
提案するDRFormerは,実世界の様々なデータセットを用いて評価し,既存の手法と比較して,その優位性を示す実験結果を得た。
論文 参考訳(メタデータ) (2024-08-05T07:26:47Z) - State Sequences Prediction via Fourier Transform for Representation
Learning [111.82376793413746]
本研究では,表現表現を効率よく学習する新しい方法である,フーリエ変換(SPF)による状態列予測を提案する。
本研究では,状態系列における構造情報の存在を理論的に解析する。
実験により,提案手法はサンプル効率と性能の両面で,最先端のアルゴリズムよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-10-24T14:47:02Z) - UniTime: A Language-Empowered Unified Model for Cross-Domain Time Series
Forecasting [59.11817101030137]
この研究はドメイン境界を超越する統一モデルパラダイムを提唱する。
効果的なクロスドメインモデルを学ぶことは、以下の課題を提示します。
効果的なドメイン間時系列学習のためのUniTimeを提案する。
論文 参考訳(メタデータ) (2023-10-15T06:30:22Z) - HyperTime: Implicit Neural Representation for Time Series [131.57172578210256]
暗黙の神経表現(INR)は、データの正確で解像度に依存しないエンコーディングを提供する強力なツールとして最近登場した。
本稿では、INRを用いて時系列の表現を分析し、再構成精度とトレーニング収束速度の点で異なるアクティベーション関数を比較した。
本稿では,INRを利用して時系列データセット全体の圧縮潜在表現を学習するハイパーネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-08-11T14:05:51Z) - Temporal Lift Pooling for Continuous Sign Language Recognition [6.428695655854854]
信号処理におけるリフティング・スキームから時間的リフティング・プール(TLP)を導出し,時間的階層の異なる特徴をインテリジェントにダウンサンプリングする。
我々のTLPは3段階の手順であり、信号分解、成分重み付け、情報融合を行い、洗練されたダウンサイズ特徴写像を生成する。
2つの大規模なデータセットの実験では、TLPは手作りの手法と、同様の計算オーバーヘッドを持つ大きなマージン(1.5%)で特殊空間の変種よりも優れていた。
論文 参考訳(メタデータ) (2022-07-18T16:28:00Z) - CHALLENGER: Training with Attribution Maps [63.736435657236505]
ニューラルネットワークのトレーニングに属性マップを利用すると、モデルの正規化が向上し、性能が向上することを示す。
特に、我々の汎用的なドメインに依存しないアプローチは、ビジョン、自然言語処理、時系列タスクにおける最先端の結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-05-30T13:34:46Z) - PSL is Dead. Long Live PSL [3.280253526254703]
プロパティ仕様言語(英: Property Specification Language、PSL)は、主に独立したドメインで使われている時間論理の一種である。
機械学習技術とPSLモニタを組み合わせることで、PSLを連続的なドメインに拡張できることを示す。
論文 参考訳(メタデータ) (2022-05-27T17:55:54Z) - Voice2Series: Reprogramming Acoustic Models for Time Series
Classification [65.94154001167608]
Voice2Seriesは、時系列分類のための音響モデルをプログラムする新しいエンドツーエンドアプローチである。
V2Sは20のタスクで性能が優れるか、最先端のメソッドと結びついているかを示し、平均精度を1.84%向上させる。
論文 参考訳(メタデータ) (2021-06-17T07:59:15Z) - Reprogramming Language Models for Molecular Representation Learning [65.00999660425731]
本稿では,分子学習タスクのための事前学習言語モデルに対して,辞書学習(R2DL)による表現再プログラミングを提案する。
対比プログラムは、k-SVDソルバを用いて、高密度ソースモデル入力空間(言語データ)とスパースターゲットモデル入力空間(例えば、化学および生物学的分子データ)との間の線形変換を学習する。
R2DLは、ドメイン固有のデータに基づいて訓練されたアート毒性予測モデルの状態によって確立されたベースラインを達成し、限られたトレーニングデータ設定でベースラインを上回る。
論文 参考訳(メタデータ) (2020-12-07T05:50:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。