論文の概要: Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models
- arxiv url: http://arxiv.org/abs/2203.16073v5
- Date: Sun, 30 Jul 2023 14:31:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-02 00:56:29.335674
- Title: Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models
- Title(参考訳): プロセスアウトカム予測における説明可能性:解釈可能かつ忠実なモデルを実現するためのガイドライン
- Authors: Alexander Stevens, Johannes De Smedt
- Abstract要約: 本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
- 参考スコア(独自算出の注目度): 77.34726150561087
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although a recent shift has been made in the field of predictive process
monitoring to use models from the explainable artificial intelligence field,
the evaluation still occurs mainly through performance-based metrics, thus not
accounting for the actionability and implications of the explanations. In this
paper, we define explainability through the interpretability of the
explanations and the faithfulness of the explainability model in the field of
process outcome prediction. The introduced properties are analysed along the
event, case, and control flow perspective which are typical for a process-based
analysis. This allows comparing inherently created explanations with post-hoc
explanations. We benchmark seven classifiers on thirteen real-life events logs,
and these cover a range of transparent and non-transparent machine learning and
deep learning models, further complemented with explainability techniques.
Next, this paper contributes a set of guidelines named X-MOP which allows
selecting the appropriate model based on the event log specifications, by
providing insight into how the varying preprocessing, model complexity and
explainability techniques typical in process outcome prediction influence the
explainability of the model.
- Abstract(参考訳): 最近の予測プロセス監視の分野では、説明可能な人工知能分野のモデルを使用するようにシフトされているが、その評価は主にパフォーマンスベースのメトリクスによって行われるため、説明の動作可能性や影響は考慮されていない。
本稿では,プロセス結果予測の分野において,説明の解釈可能性と説明可能性モデルの忠実性を通じて説明可能性を定義する。
導入された特性は、プロセスベースの分析に典型的なイベント、ケース、制御フローの観点から分析されます。
これにより、本質的に生成された説明とポストホックな説明を比較することができる。
13のリアルライフイベントログに7つの分類器をベンチマークし、透明で非透明な機械学習とディープラーニングモデルをカバーし、さらに説明可能性のテクニックを補完する。
次に、イベントログ仕様に基づいて適切なモデルを選択することができるX-MOPというガイドラインを提案し、プロセス結果予測に典型的な様々な前処理、モデル複雑さ、説明可能性技術がモデルの説明可能性にどのように影響するかを洞察する。
関連論文リスト
- Explanatory Model Monitoring to Understand the Effects of Feature Shifts on Performance [61.06245197347139]
そこで本研究では,機能シフトによるブラックボックスモデルの振る舞いを説明する新しい手法を提案する。
本稿では,最適輸送と共有値の概念を組み合わせた提案手法について,説明的性能推定として紹介する。
論文 参考訳(メタデータ) (2024-08-24T18:28:19Z) - Model Interpretation and Explainability: Towards Creating Transparency in Prediction Models [0.0]
説明可能なAI(XAI)には、モデル説明可能性と呼ばれる分析モデルがある。
クレジットカード会社からの融資のデータセットを分析し、4つの異なる予測手法を実行・比較し、現在の文献で最もよく知られた説明可能性手法をモデルトレーニングセットに適用し、特徴重要度(FI)を識別する(静的ケース)。
静的ケースと動的ケースのFI識別に矛盾が認められた。
論文 参考訳(メタデータ) (2024-05-31T13:54:25Z) - Generating Feasible and Plausible Counterfactual Explanations for Outcome Prediction of Business Processes [45.502284864662585]
データ駆動型アプローチであるREVISEDplusを導入し、妥当な対実的説明を生成する。
まず, プロセスデータの高密度領域内に存在する反ファクトデータを生成するために, 反ファクトアルゴリズムを限定する。
また、プロセスケースにおけるアクティビティ間のシーケンシャルなパターンを学習することで、妥当性を保証します。
論文 参考訳(メタデータ) (2024-03-14T09:56:35Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Counterfactuals of Counterfactuals: a back-translation-inspired approach
to analyse counterfactual editors [3.4253416336476246]
我々は、反事実的、対照的な説明の分析に焦点をあてる。
本稿では,新しい逆翻訳に基づく評価手法を提案する。
本研究では, 予測モデルと説明モデルの両方の振る舞いについて, 反事実を反復的に説明者に与えることで, 価値ある洞察を得ることができることを示す。
論文 参考訳(メタデータ) (2023-05-26T16:04:28Z) - Diagnostics-Guided Explanation Generation [32.97930902104502]
説明は機械学習モデルの合理性に光を当て、推論プロセスにおける欠陥の特定に役立ちます。
文レベルの説明を生成するためにモデルを訓練する際、いくつかの診断特性を最適化する方法を示す。
論文 参考訳(メタデータ) (2021-09-08T16:27:52Z) - Explainable AI Enabled Inspection of Business Process Prediction Models [2.5229940062544496]
本稿では,モデル説明を用いて,機械学習の予測によって適用された推論を解析する手法を提案する。
本手法の新たな貢献は,解釈可能な機械学習機構によって生成された説明と,過去のプロセス実行を記録するイベントログから抽出された文脈的,あるいはドメイン的知識の両方を活用するモデル検査の提案である。
論文 参考訳(メタデータ) (2021-07-16T06:51:18Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - Evaluations and Methods for Explanation through Robustness Analysis [117.7235152610957]
分析による特徴に基づく説明の新たな評価基準を確立する。
我々は、緩やかに必要であり、予測に十分である新しい説明を得る。
我々は、現在の予測をターゲットクラスに移動させる一連の特徴を抽出するために、説明を拡張します。
論文 参考訳(メタデータ) (2020-05-31T05:52:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。