論文の概要: Explainability of Predictive Process Monitoring Results: Can You See My
Data Issues?
- arxiv url: http://arxiv.org/abs/2202.08041v1
- Date: Wed, 16 Feb 2022 13:14:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-17 14:30:45.988688
- Title: Explainability of Predictive Process Monitoring Results: Can You See My
Data Issues?
- Title(参考訳): 予測プロセス監視結果の説明可能性: 私のデータ問題が分かるか?
- Authors: Ghada Elkhawaga, Mervat Abuelkheir, Manfred Reichert
- Abstract要約: 予測ビジネスプロセス監視(PPM)は、プロセスマイニングのユースケースとして、数年前から存在しています。
結果から得られた説明の相違が、基礎となるデータにおけるいくつかの問題を如何に示しているかを考察する。
- 参考スコア(独自算出の注目度): 3.10770247120758
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Predictive business process monitoring (PPM) has been around for several
years as a use case of process mining. PPM enables foreseeing the future of a
business process through predicting relevant information about how a running
process instance might end, related performance indicators, and other
predictable aspects. A big share of PPM approaches adopts a Machine Learning
(ML) technique to address a prediction task, especially non-process-aware PPM
approaches. Consequently, PPM inherits the challenges faced by ML approaches.
One of these challenges concerns the need to gain user trust in the predictions
generated. The field of explainable artificial intelligence (XAI) addresses
this issue. However, the choices made, and the techniques employed in a PPM
task, in addition to ML model characteristics, influence resulting
explanations. A comparison of the influence of different settings on the
generated explanations is missing. To address this gap, we investigate the
effect of different PPM settings on resulting data fed into an ML model and
consequently to a XAI method. We study how differences in resulting
explanations may indicate several issues in underlying data. We construct a
framework for our experiments including different settings at each stage of PPM
with XAI integrated as a fundamental part. Our experiments reveal several
inconsistencies, as well as agreements, between data characteristics (and hence
expectations about these data), important data used by the ML model as a result
of querying it, and explanations of predictions of the investigated ML model.
- Abstract(参考訳): 予測ビジネスプロセス監視(PPM)は、プロセスマイニングのユースケースとして、数年前から存在しています。
PPMは、実行中のプロセスインスタンスの終了方法、関連するパフォーマンス指標、その他の予測可能な側面に関する関連情報を予測することで、ビジネスプロセスの将来を予見することを可能にする。
PPMアプローチの大部分では、予測タスク、特にプロセス対応のPPMアプローチに対処するために、機械学習(ML)技術を採用している。
その結果、PPMはMLアプローチが直面する課題を継承する。
これらの課題の1つは、生成された予測に対するユーザの信頼を得る必要性に関するものだ。
説明可能な人工知能(XAI)の分野はこの問題に対処する。
しかし, MLモデルの特徴に加えて, PPMタスクにおける選択やテクニックが, 結果の説明に影響を及ぼす。
生成した説明に対する異なる設定の影響の比較は欠落している。
このギャップに対処するため、MLモデルに入力されたデータに対する異なるPPM設定の影響について検討し、XAI手法を提案する。
結果から得られた説明の相違は、基礎となるデータにおけるいくつかの問題を示す可能性がある。
我々は,PPMの各段階の異なる設定を含む実験のためのフレームワークを構築し,XAIを基本部分として統合する。
実験の結果,データ特性(およびこれらのデータに対する期待値),クエリ結果としてMLモデルが使用する重要なデータ,調査対象のMLモデルの予測に関する説明との間には,いくつかの矛盾点や一致点が明らかになった。
関連論文リスト
- Hyperparameter Tuning for Causal Inference with Double Machine Learning:
A Simulation Study [4.526082390949313]
機械学習手法の予測性能と結果の因果推定との関係を実証的に評価する。
我々は,2019 Atlantic Causal Inference Conference Data Challengeのデータを用いて,広範囲にわたるシミュレーション研究を行う。
論文 参考訳(メタデータ) (2024-02-07T09:01:51Z) - Don't Push the Button! Exploring Data Leakage Risks in Machine Learning
and Transfer Learning [0.0]
本稿では、意図しない情報がトレーニングデータを汚染し、モデルの性能評価に影響を与える機械学習(ML)における重要な問題に対処する。
新たなデータに対する評価と実際のパフォーマンスの相違は大きな懸念事項である。
データ漏洩と対処中の特定のタスクとの関係を調査し、Transfer Learningにおけるその発生を調査し、標準的なインダクティブMLとトランスダクティブMLフレームワークを比較します。
論文 参考訳(メタデータ) (2024-01-24T20:30:52Z) - A Mechanistic Interpretation of Arithmetic Reasoning in Language Models
using Causal Mediation Analysis [128.0532113800092]
算数問題に対するトランスフォーマーに基づくLMの機械的解釈を提案する。
これにより、算術に関連する情報がLMによってどのように処理されるかについての洞察が得られる。
論文 参考訳(メタデータ) (2023-05-24T11:43:47Z) - Measuring Causal Effects of Data Statistics on Language Model's
`Factual' Predictions [59.284907093349425]
大量のトレーニングデータが、最先端のNLPモデルの高性能化の大きな理由の1つである。
トレーニングデータがどのように予測に影響を及ぼすかを記述するための言語を,因果的フレームワークを通じて提供する。
我々のフレームワークは、高価なモデルの再訓練の必要性を回避し、観測データのみに基づいて因果効果を推定することができる。
論文 参考訳(メタデータ) (2022-07-28T17:36:24Z) - HardVis: Visual Analytics to Handle Instance Hardness Using
Undersampling and Oversampling Techniques [74.09665819220567]
HardVisは、主に不均衡な分類シナリオでインスタンスの硬さを処理するために設計されたビジュアル分析システムである。
ユーザはさまざまな視点からデータのサブセットを探索して、これらのパラメータをすべて決定できる。
HardVisの有効性と有効性は仮説的利用シナリオとユースケースで実証される。
論文 参考訳(メタデータ) (2022-03-29T17:04:16Z) - XAI in the context of Predictive Process Monitoring: Too much to Reveal [3.10770247120758]
予測プロセスモニタリング(PPM)は、プロセスマイニングツールに付加価値タスクとして統合されている。
XAI法は、最も効率的な予測モデルの透明性の欠如を補うために用いられる。
説明に決定論的であるXAI特性や根底にある条件を区別するために比較が欠落している。
論文 参考訳(メタデータ) (2022-02-16T15:31:59Z) - Linking Across Data Granularity: Fitting Multivariate Hawkes Processes
to Partially Interval-Censored Data [55.31692043677966]
特定の応用において、ある次元における個々の事象のタイムスタンプは観測不可能である。
本稿では,パラメータ等価性をMPPと共有する新しい点過程であるPMBP(Partial Mean Behavior Poisson)プロセスを紹介する。
合成および実世界のデータセットを用いたPMBPプロセスの能力を実証する。
論文 参考訳(メタデータ) (2021-11-03T08:25:35Z) - Interpretable Multi-dataset Evaluation for Named Entity Recognition [110.64368106131062]
本稿では,名前付きエンティティ認識(NER)タスクに対する一般的な評価手法を提案する。
提案手法は,モデルとデータセットの違いと,それらの間の相互作用を解釈することを可能にする。
分析ツールを利用可能にすることで、将来の研究者が同様の分析を実行し、この分野の進歩を促進することができる。
論文 参考訳(メタデータ) (2020-11-13T10:53:27Z) - Multi-output Gaussian Process Modulated Poisson Processes for Event
Prediction [5.782827425991284]
非均一なポアソン過程に基づく個人化イベント予測のための非パラメトリック予測フレームワークを提案する。
我々は、MGCP Poissonプロセスモデルにおけるパラメータの学習と推定のための変分推論スキームを導出する。
論文 参考訳(メタデータ) (2020-11-06T03:19:08Z) - Transformer Hawkes Process [79.16290557505211]
本稿では,長期的依存関係を捕捉する自己認識機構を利用したTransformer Hawkes Process (THP) モデルを提案する。
THPは、有意なマージンによる可能性と事象予測の精度の両方の観点から、既存のモデルより優れている。
本稿では、THPが関係情報を組み込む際に、複数の点過程を学習する際の予測性能の改善を実現する具体例を示す。
論文 参考訳(メタデータ) (2020-02-21T13:48:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。