論文の概要: Counterfactual Explanations for Predictive Business Process Monitoring
- arxiv url: http://arxiv.org/abs/2202.12018v1
- Date: Thu, 24 Feb 2022 11:01:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-25 16:20:38.373870
- Title: Counterfactual Explanations for Predictive Business Process Monitoring
- Title(参考訳): 予測的ビジネスプロセスモニタリングのための反事実的説明
- Authors: Tsung-Hao Huang, Andreas Metzger, Klaus Pohl
- Abstract要約: 本稿では,予測プロセス監視のための対実的説明手法であるLORELEYを提案する。
LORELEYは平均忠実度97.69%の予測モデルを近似し、現実的な対実的な説明を生成する。
- 参考スコア(独自算出の注目度): 0.90238471756546
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Predictive business process monitoring increasingly leverages sophisticated
prediction models. Although sophisticated models achieve consistently higher
prediction accuracy than simple models, one major drawback is their lack of
interpretability, which limits their adoption in practice. We thus see growing
interest in explainable predictive business process monitoring, which aims to
increase the interpretability of prediction models. Existing solutions focus on
giving factual explanations.While factual explanations can be helpful, humans
typically do not ask why a particular prediction was made, but rather why it
was made instead of another prediction, i.e., humans are interested in
counterfactual explanations. While research in explainable AI produced several
promising techniques to generate counterfactual explanations, directly applying
them to predictive process monitoring may deliver unrealistic explanations,
because they ignore the underlying process constraints. We propose LORELEY, a
counterfactual explanation technique for predictive process monitoring, which
extends LORE, a recent explainable AI technique. We impose control flow
constraints to the explanation generation process to ensure realistic
counterfactual explanations. Moreover, we extend LORE to enable explaining
multi-class classification models. Experimental results using a real, public
dataset indicate that LORELEY can approximate the prediction models with an
average fidelity of 97.69\% and generate realistic counterfactual explanations.
- Abstract(参考訳): 予測的ビジネスプロセス監視は、高度な予測モデルを活用する傾向にある。
洗練されたモデルは単純なモデルよりも一貫して高い予測精度を達成するが、大きな欠点は解釈可能性の欠如である。
そこで我々は,予測モデルの解釈可能性を高めることを目的とした,説明可能な予測可能なビジネスプロセス監視への関心が高まっている。
既存のソリューションは、事実の説明に重点を置いている。事実の説明は役に立つが、人間は通常、なぜ特定の予測が行われたのかを問わない。
説明可能なAIの研究は、カウンターファクトな説明を生成するためにいくつかの有望なテクニックを生み出したが、予測プロセス監視に直接適用することで、基礎となるプロセス制約を無視しているため、非現実的な説明をもたらす可能性がある。
本稿では、予測プロセス監視のための対実的説明手法であるLORELEYを提案し、最近の説明可能なAI技術であるLOREを拡張した。
説明生成プロセスに制御フロー制約を課し,現実的な反事実的説明を確実にする。
さらに,多クラス分類モデルを説明するためにloreを拡張した。
実際の公開データセットを用いた実験結果は、LORELEYが予測モデルを97.69\%の平均忠実度に近似し、現実的な反事実的説明を生成することを示唆している。
関連論文リスト
- XForecast: Evaluating Natural Language Explanations for Time Series Forecasting [72.57427992446698]
時系列予測は、特に正確な予測に依存するステークホルダーにとって、意思決定を支援する。
伝統的に説明可能なAI(XAI)メソッドは、機能や時間的重要性を基盤とするものであり、専門家の知識を必要とすることが多い。
時系列データにおける複雑な因果関係のため,予測NLEの評価は困難である。
論文 参考訳(メタデータ) (2024-10-18T05:16:39Z) - Counterfactual Explanations for Deep Learning-Based Traffic Forecasting [42.31238891397725]
この研究は、説明可能なAIアプローチ、反実的説明を活用し、ディープラーニングベースのトラフィック予測モデルの説明可能性とユーザビリティを高めることを目的としている。
この研究は、まず、過去の交通データと文脈変数に基づいて、交通速度を予測するディープラーニングモデルを実装する。
次に、これらの入力変数の変化が予測結果にどのように影響するかを照らすために、対実的な説明が使用される。
論文 参考訳(メタデータ) (2024-05-01T11:26:31Z) - Generating Feasible and Plausible Counterfactual Explanations for Outcome Prediction of Business Processes [45.502284864662585]
データ駆動型アプローチであるREVISEDplusを導入し、妥当な対実的説明を生成する。
まず, プロセスデータの高密度領域内に存在する反ファクトデータを生成するために, 反ファクトアルゴリズムを限定する。
また、プロセスケースにおけるアクティビティ間のシーケンシャルなパターンを学習することで、妥当性を保証します。
論文 参考訳(メタデータ) (2024-03-14T09:56:35Z) - Counterfactuals of Counterfactuals: a back-translation-inspired approach
to analyse counterfactual editors [3.4253416336476246]
我々は、反事実的、対照的な説明の分析に焦点をあてる。
本稿では,新しい逆翻訳に基づく評価手法を提案する。
本研究では, 予測モデルと説明モデルの両方の振る舞いについて, 反事実を反復的に説明者に与えることで, 価値ある洞察を得ることができることを示す。
論文 参考訳(メタデータ) (2023-05-26T16:04:28Z) - Pathologies of Pre-trained Language Models in Few-shot Fine-tuning [50.3686606679048]
実例が少ない事前学習言語モデルはラベル間に強い予測バイアスを示すことを示す。
わずかな微調整で予測バイアスを軽減できるが,本分析では,非タスク関連の特徴を捉えることで,モデルの性能向上を図っている。
これらの観察は、より少ない例でモデルのパフォーマンスを追求することは、病理学的予測行動を引き起こす可能性があることを警告する。
論文 参考訳(メタデータ) (2022-04-17T15:55:18Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Training Deep Models to be Explained with Fewer Examples [40.58343220792933]
我々は、サンプル数を減らすために、スパース正規化器と同時に予測モデルと説明モデルを訓練する。
いくつかのデータセットを用いた実験により,提案手法は予測性能を維持しながら忠実性を向上させることを示した。
論文 参考訳(メタデータ) (2021-12-07T05:39:21Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Model extraction from counterfactual explanations [68.8204255655161]
本稿では, 敵が反実的説明によって提供された情報を利用して, 高精度かつ高精度なモデル抽出攻撃を構築する方法を示す。
我々の攻撃は、敵が相手モデルの忠実なコピーを、その偽説明にアクセスして作成することを可能にする。
論文 参考訳(メタデータ) (2020-09-03T19:02:55Z) - Explaining the Behavior of Black-Box Prediction Algorithms with Causal
Learning [9.279259759707996]
ブラックボックス予測モデルのポストホック説明可能性に対する因果的アプローチは、ますます人気が高まっている。
因果図形表現を学習し、特徴間の任意の非計測的共起を可能にする。
我々のアプローチは、適切な説明が介入論的な意味で「異論者」である要因を示唆する因果説明の反実理論によって動機付けられている。
論文 参考訳(メタデータ) (2020-06-03T19:02:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。