論文の概要: Explainability of Predictive Process Monitoring Results: Can You See My
Data Issues?
- arxiv url: http://arxiv.org/abs/2202.08041v1
- Date: Wed, 16 Feb 2022 13:14:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-17 14:30:45.988688
- Title: Explainability of Predictive Process Monitoring Results: Can You See My
Data Issues?
- Title(参考訳): 予測プロセス監視結果の説明可能性: 私のデータ問題が分かるか?
- Authors: Ghada Elkhawaga, Mervat Abuelkheir, Manfred Reichert
- Abstract要約: 予測ビジネスプロセス監視(PPM)は、プロセスマイニングのユースケースとして、数年前から存在しています。
結果から得られた説明の相違が、基礎となるデータにおけるいくつかの問題を如何に示しているかを考察する。
- 参考スコア(独自算出の注目度): 3.10770247120758
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Predictive business process monitoring (PPM) has been around for several
years as a use case of process mining. PPM enables foreseeing the future of a
business process through predicting relevant information about how a running
process instance might end, related performance indicators, and other
predictable aspects. A big share of PPM approaches adopts a Machine Learning
(ML) technique to address a prediction task, especially non-process-aware PPM
approaches. Consequently, PPM inherits the challenges faced by ML approaches.
One of these challenges concerns the need to gain user trust in the predictions
generated. The field of explainable artificial intelligence (XAI) addresses
this issue. However, the choices made, and the techniques employed in a PPM
task, in addition to ML model characteristics, influence resulting
explanations. A comparison of the influence of different settings on the
generated explanations is missing. To address this gap, we investigate the
effect of different PPM settings on resulting data fed into an ML model and
consequently to a XAI method. We study how differences in resulting
explanations may indicate several issues in underlying data. We construct a
framework for our experiments including different settings at each stage of PPM
with XAI integrated as a fundamental part. Our experiments reveal several
inconsistencies, as well as agreements, between data characteristics (and hence
expectations about these data), important data used by the ML model as a result
of querying it, and explanations of predictions of the investigated ML model.
- Abstract(参考訳): 予測ビジネスプロセス監視(PPM)は、プロセスマイニングのユースケースとして、数年前から存在しています。
PPMは、実行中のプロセスインスタンスの終了方法、関連するパフォーマンス指標、その他の予測可能な側面に関する関連情報を予測することで、ビジネスプロセスの将来を予見することを可能にする。
PPMアプローチの大部分では、予測タスク、特にプロセス対応のPPMアプローチに対処するために、機械学習(ML)技術を採用している。
その結果、PPMはMLアプローチが直面する課題を継承する。
これらの課題の1つは、生成された予測に対するユーザの信頼を得る必要性に関するものだ。
説明可能な人工知能(XAI)の分野はこの問題に対処する。
しかし, MLモデルの特徴に加えて, PPMタスクにおける選択やテクニックが, 結果の説明に影響を及ぼす。
生成した説明に対する異なる設定の影響の比較は欠落している。
このギャップに対処するため、MLモデルに入力されたデータに対する異なるPPM設定の影響について検討し、XAI手法を提案する。
結果から得られた説明の相違は、基礎となるデータにおけるいくつかの問題を示す可能性がある。
我々は,PPMの各段階の異なる設定を含む実験のためのフレームワークを構築し,XAIを基本部分として統合する。
実験の結果,データ特性(およびこれらのデータに対する期待値),クエリ結果としてMLモデルが使用する重要なデータ,調査対象のMLモデルの予測に関する説明との間には,いくつかの矛盾点や一致点が明らかになった。
関連論文リスト
- Influence Functions for Scalable Data Attribution in Diffusion Models [52.92223039302037]
拡散モデルは、生成的モデリングに大きな進歩をもたらした。
しかし、彼らの普及はデータ属性と解釈可能性に関する課題を引き起こす。
本稿では,テキスト・インフルエンス・ファンクション・フレームワークを開発することにより,このような課題に対処することを目的とする。
論文 参考訳(メタデータ) (2024-10-17T17:59:02Z) - Explanatory Model Monitoring to Understand the Effects of Feature Shifts on Performance [61.06245197347139]
そこで本研究では,機能シフトによるブラックボックスモデルの振る舞いを説明する新しい手法を提案する。
本稿では,最適輸送と共有値の概念を組み合わせた提案手法について,説明的性能推定として紹介する。
論文 参考訳(メタデータ) (2024-08-24T18:28:19Z) - Hyperparameter Tuning for Causal Inference with Double Machine Learning:
A Simulation Study [4.526082390949313]
機械学習手法の予測性能と結果の因果推定との関係を実証的に評価する。
我々は,2019 Atlantic Causal Inference Conference Data Challengeのデータを用いて,広範囲にわたるシミュレーション研究を行う。
論文 参考訳(メタデータ) (2024-02-07T09:01:51Z) - A Mechanistic Interpretation of Arithmetic Reasoning in Language Models
using Causal Mediation Analysis [128.0532113800092]
算数問題に対するトランスフォーマーに基づくLMの機械的解釈を提案する。
これにより、算術に関連する情報がLMによってどのように処理されるかについての洞察が得られる。
論文 参考訳(メタデータ) (2023-05-24T11:43:47Z) - Measuring Causal Effects of Data Statistics on Language Model's
`Factual' Predictions [59.284907093349425]
大量のトレーニングデータが、最先端のNLPモデルの高性能化の大きな理由の1つである。
トレーニングデータがどのように予測に影響を及ぼすかを記述するための言語を,因果的フレームワークを通じて提供する。
我々のフレームワークは、高価なモデルの再訓練の必要性を回避し、観測データのみに基づいて因果効果を推定することができる。
論文 参考訳(メタデータ) (2022-07-28T17:36:24Z) - XAI in the context of Predictive Process Monitoring: Too much to Reveal [3.10770247120758]
予測プロセスモニタリング(PPM)は、プロセスマイニングツールに付加価値タスクとして統合されている。
XAI法は、最も効率的な予測モデルの透明性の欠如を補うために用いられる。
説明に決定論的であるXAI特性や根底にある条件を区別するために比較が欠落している。
論文 参考訳(メタデータ) (2022-02-16T15:31:59Z) - Interpretable Multi-dataset Evaluation for Named Entity Recognition [110.64368106131062]
本稿では,名前付きエンティティ認識(NER)タスクに対する一般的な評価手法を提案する。
提案手法は,モデルとデータセットの違いと,それらの間の相互作用を解釈することを可能にする。
分析ツールを利用可能にすることで、将来の研究者が同様の分析を実行し、この分野の進歩を促進することができる。
論文 参考訳(メタデータ) (2020-11-13T10:53:27Z) - Multi-output Gaussian Process Modulated Poisson Processes for Event
Prediction [5.782827425991284]
非均一なポアソン過程に基づく個人化イベント予測のための非パラメトリック予測フレームワークを提案する。
我々は、MGCP Poissonプロセスモデルにおけるパラメータの学習と推定のための変分推論スキームを導出する。
論文 参考訳(メタデータ) (2020-11-06T03:19:08Z) - Transformer Hawkes Process [79.16290557505211]
本稿では,長期的依存関係を捕捉する自己認識機構を利用したTransformer Hawkes Process (THP) モデルを提案する。
THPは、有意なマージンによる可能性と事象予測の精度の両方の観点から、既存のモデルより優れている。
本稿では、THPが関係情報を組み込む際に、複数の点過程を学習する際の予測性能の改善を実現する具体例を示す。
論文 参考訳(メタデータ) (2020-02-21T13:48:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。