論文の概要: XAI in the context of Predictive Process Monitoring: Too much to Reveal
- arxiv url: http://arxiv.org/abs/2202.08265v1
- Date: Wed, 16 Feb 2022 15:31:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-18 15:15:36.357167
- Title: XAI in the context of Predictive Process Monitoring: Too much to Reveal
- Title(参考訳): xai: 予測プロセス監視の文脈で: あまりに多すぎて明らかにできない
- Authors: Ghada Elkhawaga, Mervat Abuelkheir, Manfred Reichert
- Abstract要約: 予測プロセスモニタリング(PPM)は、プロセスマイニングツールに付加価値タスクとして統合されている。
XAI法は、最も効率的な予測モデルの透明性の欠如を補うために用いられる。
説明に決定論的であるXAI特性や根底にある条件を区別するために比較が欠落している。
- 参考スコア(独自算出の注目度): 3.10770247120758
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Predictive Process Monitoring (PPM) has been integrated into process mining
tools as a value-adding task. PPM provides useful predictions on the further
execution of the running business processes. To this end, machine
learning-based techniques are widely employed in the context of PPM. In order
to gain stakeholders trust and advocacy of PPM predictions, eXplainable
Artificial Intelligence (XAI) methods are employed in order to compensate for
the lack of transparency of most efficient predictive models. Even when
employed under the same settings regarding data, preprocessing techniques, and
ML models, explanations generated by multiple XAI methods differ profoundly. A
comparison is missing to distinguish XAI characteristics or underlying
conditions that are deterministic to an explanation. To address this gap, we
provide a framework to enable studying the effect of different PPM-related
settings and ML model-related choices on characteristics and expressiveness of
resulting explanations. In addition, we compare how different explainability
methods characteristics can shape resulting explanations and enable reflecting
underlying model reasoning process
- Abstract(参考訳): 予測プロセスモニタリング(PPM)は、プロセスマイニングツールに付加価値タスクとして統合されている。
PPMは実行中のビジネスプロセスのさらなる実行に関する有用な予測を提供する。
この目的のために、機械学習ベースの技術は、PPMの文脈で広く採用されている。
PPM予測に対する利害関係者の信頼と擁護を得るために、最も効率的な予測モデルの透明性の欠如を補うために、eXplainable Artificial Intelligence (XAI)法が用いられている。
データ、前処理技術、MLモデルに関する同じ設定の下でも、複数のXAIメソッドによって生成された説明は大きく異なる。
説明に決定論的であるXAI特性または基礎条件を区別するために比較が欠落している。
このギャップに対処するために、異なるPPM関連設定とMLモデル関連選択が結果の説明の特性と表現性に与える影響を研究できるフレームワークを提供する。
さらに、異なる説明可能性法が結果の説明を形作り、基礎となるモデル推論プロセスの反映を可能にする方法について比較する。
関連論文リスト
- Efficient Learning of POMDPs with Known Observation Model in Average-Reward Setting [56.92178753201331]
我々は,POMDPパラメータを信念に基づくポリシを用いて収集したサンプルから学習することのできる観測・認識スペクトル(OAS)推定手法を提案する。
提案するOAS-UCRLアルゴリズムに対して,OASプロシージャの整合性を示し,$mathcalO(sqrtT log(T)$の残差保証を証明した。
論文 参考訳(メタデータ) (2024-10-02T08:46:34Z) - Explanatory Model Monitoring to Understand the Effects of Feature Shifts on Performance [61.06245197347139]
そこで本研究では,機能シフトによるブラックボックスモデルの振る舞いを説明する新しい手法を提案する。
本稿では,最適輸送と共有値の概念を組み合わせた提案手法について,説明的性能推定として紹介する。
論文 参考訳(メタデータ) (2024-08-24T18:28:19Z) - Robustness of Explainable Artificial Intelligence in Industrial Process Modelling [43.388607981317016]
我々は,地中真実シミュレーションと感度解析に基づいて,現在のXAI手法を評価する。
モデル化された産業プロセスの真の感度を正確に予測する能力において,XAI法とXAI法の違いを示す。
論文 参考訳(メタデータ) (2024-07-12T09:46:26Z) - A Mechanistic Interpretation of Arithmetic Reasoning in Language Models
using Causal Mediation Analysis [128.0532113800092]
算数問題に対するトランスフォーマーに基づくLMの機械的解釈を提案する。
これにより、算術に関連する情報がLMによってどのように処理されるかについての洞察が得られる。
論文 参考訳(メタデータ) (2023-05-24T11:43:47Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Explainability of Predictive Process Monitoring Results: Can You See My
Data Issues? [3.10770247120758]
予測ビジネスプロセス監視(PPM)は、プロセスマイニングのユースケースとして、数年前から存在しています。
結果から得られた説明の相違が、基礎となるデータにおけるいくつかの問題を如何に示しているかを考察する。
論文 参考訳(メタデータ) (2022-02-16T13:14:02Z) - Locally Interpretable Model Agnostic Explanations using Gaussian
Processes [2.9189409618561966]
LIME(Local Interpretable Model-Agnostic Explanations)は、単一インスタンスの予測を説明する一般的なテクニックである。
局所的解釈可能なモデルのガウス過程(GP)に基づくバリエーションを提案する。
提案手法は,LIMEに比べてはるかに少ないサンプルを用いて忠実な説明を生成可能であることを示す。
論文 参考訳(メタデータ) (2021-08-16T05:49:01Z) - CoCoMoT: Conformance Checking of Multi-Perspective Processes via SMT
(Extended Version) [62.96267257163426]
我々はCoCoMoT(Computing Conformance Modulo Theories)フレームワークを紹介する。
まず、純粋な制御フロー設定で研究したSATベースのエンコーディングを、データ認識ケースに持ち上げる方法を示す。
次に,プロパティ保存型クラスタリングの概念に基づく新しい前処理手法を提案する。
論文 参考訳(メタデータ) (2021-03-18T20:22:50Z) - Evaluating Explainable Methods for Predictive Process Analytics: A
Functionally-Grounded Approach [2.2448567386846916]
予測プロセス分析は、ビジネスプロセスの実行インスタンスの将来の状態を予測することに焦点を当てる。
現在のLIMEやSHAPのような説明可能な機械学習手法は、ブラックボックスモデルの解釈に利用できる。
XGBoost上に構築されたプロセス予測モデルの解釈におけるLIMEとSHAPの性能評価に,提案手法を適用した。
論文 参考訳(メタデータ) (2020-12-08T05:05:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。