論文の概要: Class-Specific Explainability for Deep Time Series Classifiers
- arxiv url: http://arxiv.org/abs/2210.05411v1
- Date: Tue, 11 Oct 2022 12:37:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 16:56:39.624394
- Title: Class-Specific Explainability for Deep Time Series Classifiers
- Title(参考訳): ディープ時系列分類器のクラス別説明可能性
- Authors: Ramesh Doddaiah, Prathyush Parvatharaju, Elke Rundensteiner, Thomas
Hartvigsen
- Abstract要約: ディープ時系列分類器におけるクラス固有の説明可能性の開放的問題について検討する。
我々は,深層多クラス時系列分類器を説明するために,サリエンシマップを学習する新しい説明可能性手法DEMUXを設計する。
我々の実験的研究は、DEMUXが5つの一般的なデータセットで9つの最先端の代替品より優れていることを示した。
- 参考スコア(独自算出の注目度): 6.566615606042994
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainability helps users trust deep learning solutions for time series
classification. However, existing explainability methods for multi-class time
series classifiers focus on one class at a time, ignoring relationships between
the classes. Instead, when a classifier is choosing between many classes, an
effective explanation must show what sets the chosen class apart from the rest.
We now formalize this notion, studying the open problem of class-specific
explainability for deep time series classifiers, a challenging and impactful
problem setting. We design a novel explainability method, DEMUX, which learns
saliency maps for explaining deep multi-class time series classifiers by
adaptively ensuring that its explanation spotlights the regions in an input
time series that a model uses specifically to its predicted class. DEMUX adopts
a gradient-based approach composed of three interdependent modules that combine
to generate consistent, class-specific saliency maps that remain faithful to
the classifier's behavior yet are easily understood by end users. Our
experimental study demonstrates that DEMUX outperforms nine state-of-the-art
alternatives on five popular datasets when explaining two types of deep time
series classifiers. Further, through a case study, we demonstrate that DEMUX's
explanations indeed highlight what separates the predicted class from the
others in the eyes of the classifier. Our code is publicly available at
https://github.com/rameshdoddaiah/DEMUX.
- Abstract(参考訳): 説明性は、時系列分類のディープラーニングソリューションを信頼するのに役立つ。
しかし、マルチクラス時系列分類器の既存の説明可能性メソッドは、クラス間の関係を無視して、一度に1つのクラスにフォーカスする。
代わりに、分類器が多くのクラスの中から選択する場合、効果的な説明は、選択したクラスを他のクラスから切り離すものを示す必要がある。
我々はこの概念を定式化し、深層時系列分類器のクラス固有の説明可能性という、挑戦的で影響に富んだ問題の設定のオープン問題を研究している。
本稿では,モデルが予測クラスに特に使用する入力時系列内の領域に適応的にスポットライトを当てることによって,深層マルチクラス時系列分類器を説明するためのサリエンシマップDEMUXを設計する。
DEMUXは、3つの依存モジュールからなる勾配に基づくアプローチを採用しており、一貫性のあるクラス固有の唾液マップを生成し、分類器の振る舞いに忠実でありながら、エンドユーザは容易に理解することができる。
実験により、DEMUXは2種類のディープ時系列分類器を説明する際に、5つの一般的なデータセットに対して9つの最先端の代替手段より優れていることが示された。
さらに,ケーススタディを通じて,demuxの説明が,予測されたクラスと他のクラスとを区別するものを,分類器の目線で示していることを示す。
私たちのコードはhttps://github.com/rameshdoddaiah/demuxで公開しています。
関連論文リスト
- Generative Multi-modal Models are Good Class-Incremental Learners [51.5648732517187]
クラス増分学習のための新しい生成型マルチモーダルモデル(GMM)フレームワークを提案する。
提案手法は適応生成モデルを用いて画像のラベルを直接生成する。
Few-shot CIL設定では、現在の最先端のすべてのメソッドに対して少なくとも14%精度が向上し、忘れてはならない。
論文 参考訳(メタデータ) (2024-03-27T09:21:07Z) - Mitigating Word Bias in Zero-shot Prompt-based Classifiers [55.60306377044225]
一致したクラス先行は、オラクルの上界性能と強く相関していることを示す。
また,NLPタスクに対するプロンプト設定において,一貫したパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2023-09-10T10:57:41Z) - Generalization Bounds for Few-Shot Transfer Learning with Pretrained
Classifiers [26.844410679685424]
本研究では,新しいクラスに移動可能な分類の表現を基礎モデルで学習する能力について検討する。
クラス-機能-変数の崩壊の場合,新しいクラスで学習した特徴マップのわずかな誤差が小さいことを示す。
論文 参考訳(メタデータ) (2022-12-23T18:46:05Z) - Anomaly Detection using Ensemble Classification and Evidence Theory [62.997667081978825]
本稿では,アンサンブル分類とエビデンス理論を用いた新しい検出手法を提案する。
固体アンサンブル分類器を構築するためのプール選択戦略が提示される。
我々は異常検出手法の不確実性を利用する。
論文 参考訳(メタデータ) (2022-12-23T00:50:41Z) - Mimic: An adaptive algorithm for multivariate time series classification [11.49627617337276]
時系列データは価値があるが、しばしば調査できない。
金融、医療、その他の重要なアプリケーションのための時系列分類器の信頼を得ることは、解釈可能なモデルの作成に依存するかもしれない。
本研究では,解釈可能性を導入しながら,最強分類器の予測精度を維持する新しいMimicアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-11-08T04:47:31Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - Revisiting Deep Local Descriptor for Improved Few-Shot Classification [56.74552164206737]
textbfDense textbfClassification と textbfAttentive textbfPooling を利用して埋め込みの質を向上させる方法を示す。
広範に使われているグローバル平均プール (GAP) の代わりに, 注意深いプールを施し, 特徴マップをプールすることを提案する。
論文 参考訳(メタデータ) (2021-03-30T00:48:28Z) - Learning and Evaluating Representations for Deep One-class
Classification [59.095144932794646]
ディープワンクラス分類のための2段階フレームワークを提案する。
まず,一級データから自己教師付き表現を学習し,学習した表現に基づいて一級分類器を構築する。
実験では、視覚領域の1クラス分類ベンチマークで最先端の性能を示す。
論文 参考訳(メタデータ) (2020-11-04T23:33:41Z) - Instance-based Counterfactual Explanations for Time Series
Classification [11.215352918313577]
我々は,時系列分類器の対実的説明を生成する新しいモデルに依存しないケースベース手法を推し進める。
我々は、Native Guideが、主要なベンチマークカウンターファクト法により生成されたものよりも優れた、可塑性、近さ、スパース、多彩な説明を生成することを示す。
論文 参考訳(メタデータ) (2020-09-28T10:52:48Z) - Complexity Measures and Features for Times Series classification [0.0]
本稿では,時系列分類問題に対する時系列構造に関する情報を抽出できる特徴セットを提案する。
提案手法の実験結果から, 最先端モデルの2次モデルと3次モデルとに統計的に有意な差は認められなかった。
論文 参考訳(メタデータ) (2020-02-27T11:08:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。