論文の概要: Shapelet-Based Counterfactual Explanations for Multivariate Time Series
- arxiv url: http://arxiv.org/abs/2208.10462v1
- Date: Mon, 22 Aug 2022 17:33:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-23 14:00:20.475540
- Title: Shapelet-Based Counterfactual Explanations for Multivariate Time Series
- Title(参考訳): 多変量時系列に対するシェープレットに基づく反事実説明
- Authors: Omar Bahri, Soukaina Filali Boubrahimi, Shah Muhammad Hamdi
- Abstract要約: 我々は,モデル非依存多変量時系列(MTS)の対実的説明アルゴリズムを開発した。
我々は、実生活の太陽フレア予測データセット上で、我々のアプローチを検証し、我々のアプローチが高品質な反事実を生み出すことを証明した。
視覚的に解釈可能であることに加えて、我々の説明は近接性、疎性、そして妥当性の点で優れている。
- 参考スコア(独自算出の注目度): 0.9990687944474738
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As machine learning and deep learning models have become highly prevalent in
a multitude of domains, the main reservation in their adoption for
decision-making processes is their black-box nature. The Explainable Artificial
Intelligence (XAI) paradigm has gained a lot of momentum lately due to its
ability to reduce models opacity. XAI methods have not only increased
stakeholders' trust in the decision process but also helped developers ensure
its fairness. Recent efforts have been invested in creating transparent models
and post-hoc explanations. However, fewer methods have been developed for time
series data, and even less when it comes to multivariate datasets. In this
work, we take advantage of the inherent interpretability of shapelets to
develop a model agnostic multivariate time series (MTS) counterfactual
explanation algorithm. Counterfactuals can have a tremendous impact on making
black-box models explainable by indicating what changes have to be performed on
the input to change the final decision. We test our approach on a real-life
solar flare prediction dataset and prove that our approach produces
high-quality counterfactuals. Moreover, a comparison to the only MTS
counterfactual generation algorithm shows that, in addition to being visually
interpretable, our explanations are superior in terms of proximity, sparsity,
and plausibility.
- Abstract(参考訳): 機械学習とディープラーニングのモデルがさまざまな領域で広く普及するにつれ、意思決定プロセスに採用される主な留意事項は、ブラックボックスの性質である。
説明可能な人工知能(XAI)パラダイムは最近、モデルの不透明度を減らす能力によって、多くの勢いを増している。
XAIメソッドは、意思決定プロセスにおけるステークホルダの信頼を高めるだけでなく、開発者の公正性の確保にも役立っている。
近年、透明なモデルやポストホックな説明の作成に費やされている。
しかし、時系列データに対して開発されたメソッドは少なく、多変量データセットに関してはさらに少ない。
本研究では,形状素の固有解釈可能性を利用して,モデル非依存多変量時系列(MTS)の反実的説明アルゴリズムを開発する。
反事実は、最終的な決定を変更するために入力に対してどのような変更を行う必要があるかを示すことによって、ブラックボックスモデルの説明に多大な影響を与える可能性がある。
我々は,現実の太陽フレア予測データセット上での我々のアプローチをテストし,高品質の偽物を生成することを証明した。
さらに, MTS の反ファクト生成アルゴリズムとの比較では, 視覚的に解釈できるだけでなく, 近接性, 疎性, 妥当性の点で説明が優れている。
関連論文リスト
- MinT: Boosting Generalization in Mathematical Reasoning via Multi-View
Fine-Tuning [53.90744622542961]
数学領域における推論は、小言語モデル(LM)にとって重要な課題である。
多様なアノテーションスタイルで既存の数学的問題データセットを利用する新しい手法を提案する。
実験結果から,LLaMA-7Bモデルが先行手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-07-16T05:41:53Z) - Motif-guided Time Series Counterfactual Explanations [1.1510009152620664]
本稿では,ポストホックな反事実的説明を直感的に生成する新しいモデルを提案する。
UCRリポジトリから5つの実世界の時系列データセットを用いてモデルを検証した。
論文 参考訳(メタデータ) (2022-11-08T17:56:50Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Interpretable pipelines with evolutionarily optimized modules for RL
tasks with visual inputs [5.254093731341154]
進化的アルゴリズムを用いて協調最適化された複数の解釈可能なモデルからなるエンドツーエンドパイプラインを提案する。
Atariベンチマークの強化学習環境において,本手法を検証した。
論文 参考訳(メタデータ) (2022-02-10T10:33:44Z) - Towards a Rigorous Evaluation of Explainability for Multivariate Time
Series [5.786452383826203]
本研究では,時系列予測問題におけるモデル非依存な説明可能性の実現と評価を行った。
その解決策は、販売契約を予測する時系列予測問題として問題をフレーミングすることであった。
LIMEとSHAPによる説明は、機械学習モデルによる予測を理解する上で、人間を大いに助けた。
論文 参考訳(メタデータ) (2021-04-06T17:16:36Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - TimeSHAP: Explaining Recurrent Models through Sequence Perturbations [3.1498833540989413]
リカレントニューラルネットワークは、多くの機械学習ドメインで標準的なビルディングブロックである。
これらのモデルにおける複雑な意思決定はブラックボックスと見なされ、正確性と解釈可能性の間の緊張を生み出す。
本研究では,モデルに依存しないリカレント説明器であるTimeSHAPを提示することにより,これらのギャップを埋めることに寄与する。
論文 参考訳(メタデータ) (2020-11-30T19:48:57Z) - Learning outside the Black-Box: The pursuit of interpretable models [78.32475359554395]
本稿では,任意の連続ブラックボックス関数の連続的大域的解釈を生成するアルゴリズムを提案する。
我々の解釈は、その芸術の以前の状態から飛躍的な進歩を表している。
論文 参考訳(メタデータ) (2020-11-17T12:39:44Z) - Explainable Matrix -- Visualization for Global and Local
Interpretability of Random Forest Classification Ensembles [78.6363825307044]
本研究では,ランダムフォレスト (RF) 解釈のための新しい可視化手法である Explainable Matrix (ExMatrix) を提案する。
単純なマトリックスのようなメタファで、行はルール、列は特徴、セルはルールを述語する。
ExMatrixの適用性は、異なる例を通じて確認され、RFモデルの解釈可能性を促進するために実際にどのように使用できるかを示している。
論文 参考訳(メタデータ) (2020-05-08T21:03:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。