論文の概要: Generating Sparse Counterfactual Explanations For Multivariate Time
Series
- arxiv url: http://arxiv.org/abs/2206.00931v1
- Date: Thu, 2 Jun 2022 08:47:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-03 13:21:49.942636
- Title: Generating Sparse Counterfactual Explanations For Multivariate Time
Series
- Title(参考訳): 多変量時系列のスパース対実説明の生成
- Authors: Jana Lang, Martin Giese, Winfried Ilg and Sebastian Otte
- Abstract要約: 多変量時系列に対するSPARse Counterfactual Explanationsを生成するGANアーキテクチャを提案する。
提案手法は, トラジェクトリの類似性, 疎性, 滑らか性の観点から, 対実損失関数を正規化する。
我々は,実世界の人間の動作データセットと合成時系列解釈可能性ベンチマークに対するアプローチを評価した。
- 参考スコア(独自算出の注目度): 0.5161531917413706
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Since neural networks play an increasingly important role in critical
sectors, explaining network predictions has become a key research topic.
Counterfactual explanations can help to understand why classifier models decide
for particular class assignments and, moreover, how the respective input
samples would have to be modified such that the class prediction changes.
Previous approaches mainly focus on image and tabular data. In this work we
propose SPARCE, a generative adversarial network (GAN) architecture that
generates SPARse Counterfactual Explanations for multivariate time series. Our
approach provides a custom sparsity layer and regularizes the counterfactual
loss function in terms of similarity, sparsity, and smoothness of trajectories.
We evaluate our approach on real-world human motion datasets as well as a
synthetic time series interpretability benchmark. Although we make
significantly sparser modifications than other approaches, we achieve
comparable or better performance on all metrics. Moreover, we demonstrate that
our approach predominantly modifies salient time steps and features, leaving
non-salient inputs untouched.
- Abstract(参考訳): ニューラルネットワークは重要な分野においてますます重要な役割を担っているため、ネットワーク予測の説明が重要な研究トピックとなっている。
因果的説明は、分類器モデルが特定のクラス割り当てを決定する理由を理解するのに役立ち、さらに、クラス予測が変わるように、各入力サンプルをどのように修正する必要があるかを理解するのに役立つ。
従来のアプローチは主に画像と表データに重点を置いていた。
本研究では,多変量時系列に対してSPARse Counterfactual Explanationsを生成するGANアーキテクチャであるSPARCEを提案する。
提案手法は, トラジェクトリの類似性, 疎性, 滑らか性の観点から, 対実損失関数を正規化する。
実世界の人間の動作データセットと合成時系列解釈可能性ベンチマークに対するアプローチを評価した。
他のアプローチに比べて大幅な変更は行いませんが、すべてのメトリクスで同等あるいは優れたパフォーマンスを実現しています。
さらに,本手法は有意な時間ステップと特徴を主に変更し,非有意な入力を無傷で残すことを示した。
関連論文リスト
- Unsupervised Multi-modal Feature Alignment for Time Series
Representation Learning [20.655943795843037]
異なるモダリティから符号化された時系列表現の整合と結合に焦点を当てた革新的なアプローチを導入する。
複数のモーダルから特徴を融合させる従来の手法とは対照的に,提案手法は単一時系列エンコーダを保持することにより,ニューラルアーキテクチャを単純化する。
我々のアプローチは、様々な下流タスクにまたがる既存の最先端のURLメソッドよりも優れています。
論文 参考訳(メタデータ) (2023-12-09T22:31:20Z) - Ti-MAE: Self-Supervised Masked Time Series Autoencoders [16.98069693152999]
本稿では,Ti-MAEという新しいフレームワークを提案する。
Ti-MAEは、埋め込み時系列データをランダムにマスクアウトし、オートエンコーダを学び、ポイントレベルでそれらを再構築する。
いくつかの公開実世界のデータセットの実験では、マスク付きオートエンコーディングのフレームワークが生データから直接強力な表現を学習できることが示されている。
論文 参考訳(メタデータ) (2023-01-21T03:20:23Z) - Self-Supervised Learning via Maximum Entropy Coding [57.56570417545023]
本稿では,表現の構造を明示的に最適化する原理的目的として,最大エントロピー符号化(MEC)を提案する。
MECは、特定のプリテキストタスクに基づいて、以前のメソッドよりもより一般化可能な表現を学ぶ。
ImageNetリニアプローブだけでなく、半教師付き分類、オブジェクト検出、インスタンスセグメンテーション、オブジェクトトラッキングなど、さまざまなダウンストリームタスクに対して一貫して最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-10-20T17:58:30Z) - Invariant Causal Mechanisms through Distribution Matching [86.07327840293894]
本研究では、因果的視点と不変表現を学習するための新しいアルゴリズムを提供する。
実験により,このアルゴリズムは様々なタスク群でうまく動作し,特にドメインの一般化における最先端のパフォーマンスを観察する。
論文 参考訳(メタデータ) (2022-06-23T12:06:54Z) - Efficient Modelling Across Time of Human Actions and Interactions [92.39082696657874]
3つの畳み込みニューラルネットワーク(CNND)における現在の固定サイズの時間的カーネルは、入力の時間的変動に対処するために改善できると主張している。
我々は、アーキテクチャの異なるレイヤにまたがる機能の違いを強化することで、アクションのクラス間でどのようにうまく対処できるかを研究する。
提案手法は、いくつかのベンチマークアクション認識データセットで評価され、競合する結果を示す。
論文 参考訳(メタデータ) (2021-10-05T15:39:11Z) - Exploring Complementary Strengths of Invariant and Equivariant
Representations for Few-Shot Learning [96.75889543560497]
多くの現実世界では、多数のラベル付きサンプルの収集は不可能です。
少ないショット学習はこの問題に対処するための主要なアプローチであり、目的は限られた数のサンプルの存在下で新しいカテゴリに迅速に適応することです。
幾何学的変換の一般集合に対する等分散と不変性を同時に強制する新しい訓練機構を提案する。
論文 参考訳(メタデータ) (2021-03-01T21:14:33Z) - Explainable Multivariate Time Series Classification: A Deep Neural
Network Which Learns To Attend To Important Variables As Well As Informative
Time Intervals [32.30627405832656]
時系列データは、様々な現実世界のアプリケーションで広く使われている。
このような予測モデルを理解するための重要な基準は、分類に対する時間変化の入力変数の寄与を解明し定量化することである。
本稿では,変数と時間間隔を同時に識別し,分類出力を決定する新しい,モジュール型・畳み込み型特徴抽出・注目機構を提案する。
論文 参考訳(メタデータ) (2020-11-23T19:16:46Z) - Benchmarking Deep Learning Interpretability in Time Series Predictions [41.13847656750174]
モデル予測における入力特徴の重要性を強調するために、サリエンシ法が広く用いられている。
そこで我々は,多様なニューラルアーキテクチャにまたがって,サリエンシに基づく様々な解釈可能性手法の性能を広範囲に比較した。
論文 参考訳(メタデータ) (2020-10-26T22:07:53Z) - Predicting Temporal Sets with Deep Neural Networks [50.53727580527024]
本稿では,時間集合予測のためのディープニューラルネットワークに基づく統合解を提案する。
ユニークな視点は、セットレベルの共起グラフを構築することで要素関係を学ぶことである。
我々は,要素や集合の時間依存性を適応的に学習するアテンションベースのモジュールを設計する。
論文 参考訳(メタデータ) (2020-06-20T03:29:02Z) - Prototypical Contrastive Learning of Unsupervised Representations [171.3046900127166]
原型コントラスト学習(Prototypeal Contrastive Learning, PCL)は、教師なし表現学習法である。
PCLは暗黙的にデータのセマンティック構造を学習された埋め込み空間にエンコードする。
PCLは、複数のベンチマークで最先端のインスタンスワイド・コントラスト学習法より優れている。
論文 参考訳(メタデータ) (2020-05-11T09:53:36Z) - Conditional Mutual information-based Contrastive Loss for Financial Time
Series Forecasting [12.0855096102517]
金融時系列予測のための表現学習フレームワークを提案する。
本稿では、まず時系列データからコンパクトな表現を学習し、次に学習した表現を用いて、時系列の動きを予測するためのより単純なモデルを訓練する。
論文 参考訳(メタデータ) (2020-02-18T15:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。