論文の概要: An Explainable Decision Support System for Predictive Process Analytics
- arxiv url: http://arxiv.org/abs/2207.12782v1
- Date: Tue, 26 Jul 2022 09:55:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-27 13:13:12.772992
- Title: An Explainable Decision Support System for Predictive Process Analytics
- Title(参考訳): 予測プロセス分析のための説明可能な意思決定支援システム
- Authors: Riccardo Galanti, Massimiliano de Leoni, Merylin Monaro, Nicol\`o
Navarin, Alan Marazzi, Brigida Di Stasi, St\'ephanie Maldera
- Abstract要約: 本稿では,Shapley Valuesのゲーム理論に基づく説明機能を備えた予測分析フレームワークを提案する。
このフレームワークはIBM Process Miningスイートで実装され、ビジネスユーザ向けに商用化されている。
- 参考スコア(独自算出の注目度): 0.41562334038629595
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Predictive Process Analytics is becoming an essential aid for organizations,
providing online operational support of their processes. However, process
stakeholders need to be provided with an explanation of the reasons why a given
process execution is predicted to behave in a certain way. Otherwise, they will
be unlikely to trust the predictive monitoring technology and, hence, adopt it.
This paper proposes a predictive analytics framework that is also equipped with
explanation capabilities based on the game theory of Shapley Values. The
framework has been implemented in the IBM Process Mining suite and
commercialized for business users. The framework has been tested on real-life
event data to assess the quality of the predictions and the corresponding
evaluations. In particular, a user evaluation has been performed in order to
understand if the explanations provided by the system were intelligible to
process stakeholders.
- Abstract(参考訳): 予測プロセス分析は、組織にとって不可欠な支援となり、彼らのプロセスのオンライン運用サポートを提供しています。
しかし、プロセスのステークホルダーは、与えられたプロセスの実行が特定の方法で振る舞うと予測される理由の説明を提供する必要があります。
さもなければ、予測監視技術を信頼して、それを採用することはありそうもないでしょう。
本稿では,Shapley Valuesのゲーム理論に基づく説明機能を備えた予測分析フレームワークを提案する。
このフレームワークはibm process mining suiteで実装され、ビジネスユーザ向けに商用化された。
このフレームワークは実生活のイベントデータを用いて、予測の品質とそれに対応する評価を評価する。
特に、システムが提供する説明がプロセス利害関係者に理解できるかどうかを理解するために、ユーザ評価が実施されている。
関連論文リスト
- Pessimistic Evaluation [58.736490198613154]
情報アクセスシステムの評価は,情報アクセスの伝統に沿わない実用的価値を前提としている。
我々は,最悪のケースユーティリティに着目した情報アクセスシステムの悲観的評価を提唱する。
論文 参考訳(メタデータ) (2024-10-17T15:40:09Z) - Achieving Fairness in Predictive Process Analytics via Adversarial Learning [50.31323204077591]
本稿では、デバイアスフェーズを予測ビジネスプロセス分析に組み込むことの課題に対処する。
本研究の枠組みは, 4つのケーススタディで検証し, 予測値に対する偏り変数の寄与を著しく低減することを示した。
論文 参考訳(メタデータ) (2024-10-03T15:56:03Z) - Generating Feasible and Plausible Counterfactual Explanations for Outcome Prediction of Business Processes [45.502284864662585]
データ駆動型アプローチであるREVISEDplusを導入し、妥当な対実的説明を生成する。
まず, プロセスデータの高密度領域内に存在する反ファクトデータを生成するために, 反ファクトアルゴリズムを限定する。
また、プロセスケースにおけるアクティビティ間のシーケンシャルなパターンを学習することで、妥当性を保証します。
論文 参考訳(メタデータ) (2024-03-14T09:56:35Z) - Communicating Uncertainty in Machine Learning Explanations: A
Visualization Analytics Approach for Predictive Process Monitoring [0.0]
本研究では,グローバルおよびローカルなポストホックな説明手法でモデル不確実性を効果的に伝達する方法を検討する。
これら2つの研究の方向性を組み合わせることで、意思決定者は説明駆動型実行可能な洞察の妥当性を正当化できるだけでなく、信頼性も検証できる。
論文 参考訳(メタデータ) (2023-04-12T09:44:32Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - Explainable Predictive Process Monitoring: A User Evaluation [62.41400549499849]
説明責任は、ブラックボックス機械学習アプローチの透明性の欠如によって動機付けられている。
予測プロセスモニタリングのための説明手法のユーザ評価を行う。
論文 参考訳(メタデータ) (2022-02-15T22:24:21Z) - Explainable AI Enabled Inspection of Business Process Prediction Models [2.5229940062544496]
本稿では,モデル説明を用いて,機械学習の予測によって適用された推論を解析する手法を提案する。
本手法の新たな貢献は,解釈可能な機械学習機構によって生成された説明と,過去のプロセス実行を記録するイベントログから抽出された文脈的,あるいはドメイン的知識の両方を活用するモデル検査の提案である。
論文 参考訳(メタデータ) (2021-07-16T06:51:18Z) - Evaluating Explainable Methods for Predictive Process Analytics: A
Functionally-Grounded Approach [2.2448567386846916]
予測プロセス分析は、ビジネスプロセスの実行インスタンスの将来の状態を予測することに焦点を当てる。
現在のLIMEやSHAPのような説明可能な機械学習手法は、ブラックボックスモデルの解釈に利用できる。
XGBoost上に構築されたプロセス予測モデルの解釈におけるLIMEとSHAPの性能評価に,提案手法を適用した。
論文 参考訳(メタデータ) (2020-12-08T05:05:19Z) - Explainable Predictive Process Monitoring [0.5564793925574796]
本稿では,予測的ビジネスプロセス監視と説明能力の両立という課題に対処する。
ゲーム理論であるShapley Valuesを用いて、予測の堅牢な説明を得る。
このアプローチは実生活のベンチマークで実装され、テストされ、予測ビジネスプロセス監視の分野でどのように説明ができるかを初めて示す。
論文 参考訳(メタデータ) (2020-08-04T20:09:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。