論文の概要: Shapelet-Based Counterfactual Explanations for Multivariate Time Series
- arxiv url: http://arxiv.org/abs/2208.10462v1
- Date: Mon, 22 Aug 2022 17:33:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-23 14:00:20.475540
- Title: Shapelet-Based Counterfactual Explanations for Multivariate Time Series
- Title(参考訳): 多変量時系列に対するシェープレットに基づく反事実説明
- Authors: Omar Bahri, Soukaina Filali Boubrahimi, Shah Muhammad Hamdi
- Abstract要約: 我々は,モデル非依存多変量時系列(MTS)の対実的説明アルゴリズムを開発した。
我々は、実生活の太陽フレア予測データセット上で、我々のアプローチを検証し、我々のアプローチが高品質な反事実を生み出すことを証明した。
視覚的に解釈可能であることに加えて、我々の説明は近接性、疎性、そして妥当性の点で優れている。
- 参考スコア(独自算出の注目度): 0.9990687944474738
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As machine learning and deep learning models have become highly prevalent in
a multitude of domains, the main reservation in their adoption for
decision-making processes is their black-box nature. The Explainable Artificial
Intelligence (XAI) paradigm has gained a lot of momentum lately due to its
ability to reduce models opacity. XAI methods have not only increased
stakeholders' trust in the decision process but also helped developers ensure
its fairness. Recent efforts have been invested in creating transparent models
and post-hoc explanations. However, fewer methods have been developed for time
series data, and even less when it comes to multivariate datasets. In this
work, we take advantage of the inherent interpretability of shapelets to
develop a model agnostic multivariate time series (MTS) counterfactual
explanation algorithm. Counterfactuals can have a tremendous impact on making
black-box models explainable by indicating what changes have to be performed on
the input to change the final decision. We test our approach on a real-life
solar flare prediction dataset and prove that our approach produces
high-quality counterfactuals. Moreover, a comparison to the only MTS
counterfactual generation algorithm shows that, in addition to being visually
interpretable, our explanations are superior in terms of proximity, sparsity,
and plausibility.
- Abstract(参考訳): 機械学習とディープラーニングのモデルがさまざまな領域で広く普及するにつれ、意思決定プロセスに採用される主な留意事項は、ブラックボックスの性質である。
説明可能な人工知能(XAI)パラダイムは最近、モデルの不透明度を減らす能力によって、多くの勢いを増している。
XAIメソッドは、意思決定プロセスにおけるステークホルダの信頼を高めるだけでなく、開発者の公正性の確保にも役立っている。
近年、透明なモデルやポストホックな説明の作成に費やされている。
しかし、時系列データに対して開発されたメソッドは少なく、多変量データセットに関してはさらに少ない。
本研究では,形状素の固有解釈可能性を利用して,モデル非依存多変量時系列(MTS)の反実的説明アルゴリズムを開発する。
反事実は、最終的な決定を変更するために入力に対してどのような変更を行う必要があるかを示すことによって、ブラックボックスモデルの説明に多大な影響を与える可能性がある。
我々は,現実の太陽フレア予測データセット上での我々のアプローチをテストし,高品質の偽物を生成することを証明した。
さらに, MTS の反ファクト生成アルゴリズムとの比較では, 視覚的に解釈できるだけでなく, 近接性, 疎性, 妥当性の点で説明が優れている。
関連論文リスト
- SynthTree: Co-supervised Local Model Synthesis for Explainable Prediction [15.832975722301011]
本稿では,最小限の精度で説明可能性を向上させる手法を提案する。
我々は,AI技術を利用してノードを推定する新しい手法を開発した。
我々の研究は、統計的方法論が説明可能なAIを前進させる上で重要な役割を担っている。
論文 参考訳(メタデータ) (2024-06-16T14:43:01Z) - Unified Explanations in Machine Learning Models: A Perturbation Approach [0.0]
XAIとモデリング技術の不整合は、これらの説明可能性アプローチの有効性に疑念を投げかけるという望ましくない効果をもたらす可能性がある。
我々はXAI, SHapley Additive exPlanations (Shap) において, 一般的なモデルに依存しない手法に対する系統的摂動解析を提案する。
我々は、一般的な機械学習とディープラーニングの手法のスイートと、静的ケースホールドで生成された説明の正確さを定量化するためのメトリクスの中で、動的推論の設定において、相対的な特徴重要度を生成するアルゴリズムを考案した。
論文 参考訳(メタデータ) (2024-05-30T16:04:35Z) - Overlap Number of Balls Model-Agnostic CounterFactuals (ONB-MACF): A Data-Morphology-based Counterfactual Generation Method for Trustworthy Artificial Intelligence [15.415120542032547]
XAIはAIシステムをより理解しやすく信頼性の高いものにしようとしている。
本研究は,データ形態学戦略の価値を解析し,反実的説明を生成する。
ボールのオーバーラップ数(Overlap Number of Balls Model-Agnostic CounterFactuals,ONB-MACF)法を導入している。
論文 参考訳(メタデータ) (2024-05-20T18:51:42Z) - T-Explainer: A Model-Agnostic Explainability Framework Based on Gradients [5.946429628497358]
T-ExplainerはTaylorの拡張に基づく新しい局所的な帰属説明器である。
局所的精度や一貫性などの望ましい特性があり、T-Explainerは複数の実行で安定している。
論文 参考訳(メタデータ) (2024-04-25T10:40:49Z) - MinT: Boosting Generalization in Mathematical Reasoning via Multi-View
Fine-Tuning [53.90744622542961]
数学領域における推論は、小言語モデル(LM)にとって重要な課題である。
多様なアノテーションスタイルで既存の数学的問題データセットを利用する新しい手法を提案する。
実験結果から,LLaMA-7Bモデルが先行手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-07-16T05:41:53Z) - Motif-guided Time Series Counterfactual Explanations [1.1510009152620664]
本稿では,ポストホックな反事実的説明を直感的に生成する新しいモデルを提案する。
UCRリポジトリから5つの実世界の時系列データセットを用いてモデルを検証した。
論文 参考訳(メタデータ) (2022-11-08T17:56:50Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Learning outside the Black-Box: The pursuit of interpretable models [78.32475359554395]
本稿では,任意の連続ブラックボックス関数の連続的大域的解釈を生成するアルゴリズムを提案する。
我々の解釈は、その芸術の以前の状態から飛躍的な進歩を表している。
論文 参考訳(メタデータ) (2020-11-17T12:39:44Z) - Explainable Matrix -- Visualization for Global and Local
Interpretability of Random Forest Classification Ensembles [78.6363825307044]
本研究では,ランダムフォレスト (RF) 解釈のための新しい可視化手法である Explainable Matrix (ExMatrix) を提案する。
単純なマトリックスのようなメタファで、行はルール、列は特徴、セルはルールを述語する。
ExMatrixの適用性は、異なる例を通じて確認され、RFモデルの解釈可能性を促進するために実際にどのように使用できるかを示している。
論文 参考訳(メタデータ) (2020-05-08T21:03:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。