論文の概要: Explain, Adapt and Retrain: How to improve the accuracy of a PPM
classifier through different explanation styles
- arxiv url: http://arxiv.org/abs/2303.14939v1
- Date: Mon, 27 Mar 2023 06:37:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 16:45:59.209065
- Title: Explain, Adapt and Retrain: How to improve the accuracy of a PPM
classifier through different explanation styles
- Title(参考訳): 説明・適応・再訓練:異なる説明方法によるPPM分類器の精度向上方法
- Authors: Williams Rizzi and Chiara Di Francescomarino and Chiara Ghidini and
Fabrizio Maria Maggi
- Abstract要約: 最近の論文では、結果指向の予測に予測プロセスモニタリングモデルがなぜ間違った予測を提供するのかを説明するための新しいアプローチが紹介されている。
半自動的な方法でミスを犯す予測者を誘導する最も一般的な特徴を特定するために、説明を利用する方法を示す。
- 参考スコア(独自算出の注目度): 4.6281736192809575
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent papers have introduced a novel approach to explain why a Predictive
Process Monitoring (PPM) model for outcome-oriented predictions provides wrong
predictions. Moreover, they have shown how to exploit the explanations,
obtained using state-of-the art post-hoc explainers, to identify the most
common features that induce a predictor to make mistakes in a semi-automated
way, and, in turn, to reduce the impact of those features and increase the
accuracy of the predictive model. This work starts from the assumption that
frequent control flow patterns in event logs may represent important features
that characterize, and therefore explain, a certain prediction. Therefore, in
this paper, we (i) employ a novel encoding able to leverage DECLARE constraints
in Predictive Process Monitoring and compare the effectiveness of this encoding
with Predictive Process Monitoring state-of-the art encodings, in particular
for the task of outcome-oriented predictions; (ii) introduce a completely
automated pipeline for the identification of the most common features inducing
a predictor to make mistakes; and (iii) show the effectiveness of the proposed
pipeline in increasing the accuracy of the predictive model by validating it on
different real-life datasets.
- Abstract(参考訳): 最近の論文では、結果指向予測のための予測プロセス監視(ppm)モデルが誤った予測をもたらす理由を説明するための新しいアプローチが紹介されている。
さらに,最先端のポストホック説明器を用いて得られた説明を活用し,予測者が半自動的に誤りを生じさせる最も一般的な特徴を特定し,その特徴の影響を低減し,予測モデルの精度を向上させる方法を示した。
この研究は、イベントログにおける頻繁な制御フローパターンが、特定の予測を特徴付ける重要な特徴を表すかもしれないという仮定から始まる。
したがって、本稿では、
二 予測プロセスモニタリングにおいて、DECLARE制約を活用でき、この符号化の有効性を予測プロセスモニタリング、特に結果指向予測のタスクにおいて比較することができる新規なエンコーディングを用いる。
(ii) 予測者にミスを起こさせる最も一般的な特徴を特定するために、完全に自動化されたパイプラインを導入する。
3) 提案したパイプラインは, 異なる実生活データセット上で検証することにより, 予測モデルの精度を高める効果を示す。
関連論文リスト
- Influence Functions for Scalable Data Attribution in Diffusion Models [52.92223039302037]
拡散モデルは、生成的モデリングに大きな進歩をもたらした。
しかし、彼らの普及はデータ属性と解釈可能性に関する課題を引き起こす。
本稿では,テキスト・インフルエンス・ファンクション・フレームワークを開発することにより,このような課題に対処することを目的とする。
論文 参考訳(メタデータ) (2024-10-17T17:59:02Z) - Explanatory Model Monitoring to Understand the Effects of Feature Shifts on Performance [61.06245197347139]
そこで本研究では,機能シフトによるブラックボックスモデルの振る舞いを説明する新しい手法を提案する。
本稿では,最適輸送と共有値の概念を組み合わせた提案手法について,説明的性能推定として紹介する。
論文 参考訳(メタデータ) (2024-08-24T18:28:19Z) - Boosted Control Functions [10.503777692702952]
本研究の目的は,因果効果推定と予測タスクのギャップを埋めることである。
我々は,機械学習の分布場と同時方程式モデル,およびエコノメティクスの制御関数との新たな接続を確立する。
このフレームワーク内では、予測モデルに対する不変性の強い概念を提案し、それを既存の(ウィーカー)バージョンと比較する。
論文 参考訳(メタデータ) (2023-10-09T15:43:46Z) - Prediction-Oriented Bayesian Active Learning [51.426960808684655]
予測情報ゲイン(EPIG)は、パラメータではなく予測空間における情報ゲインを測定する。
EPIGは、さまざまなデータセットやモデルにわたるBALDと比較して、予測パフォーマンスが向上する。
論文 参考訳(メタデータ) (2023-04-17T10:59:57Z) - Improving Adaptive Conformal Prediction Using Self-Supervised Learning [72.2614468437919]
我々は、既存の予測モデルの上に自己教師付きプレテキストタスクを持つ補助モデルを訓練し、自己教師付きエラーを付加的な特徴として用いて、非整合性スコアを推定する。
合成データと実データの両方を用いて、効率(幅)、欠陥、共形予測間隔の超過といった付加情報の利点を実証的に実証する。
論文 参考訳(メタデータ) (2023-02-23T18:57:14Z) - Loss-Controlling Calibration for Predictive Models [5.51361762392299]
交換可能なデータに対する損失制御予測を行うための予測モデルの校正のための学習フレームワークを提案する。
対照的に、損失制御手法によって構築された予測器は、設定された予測器に限らない。
提案手法は,選択的回帰および高影響気象予報問題に適用する。
論文 参考訳(メタデータ) (2023-01-11T09:44:55Z) - Performance Prediction Under Dataset Shift [1.1602089225841632]
生成した合成摂動を学習し,様々な性能予測モデルの新たな領域への一般化能力について検討する。
本稿では,性能予測器の信頼性を保証するために,予測精度の自然な不確実性評価を提案する。
論文 参考訳(メタデータ) (2022-06-21T19:40:58Z) - Pathologies of Pre-trained Language Models in Few-shot Fine-tuning [50.3686606679048]
実例が少ない事前学習言語モデルはラベル間に強い予測バイアスを示すことを示す。
わずかな微調整で予測バイアスを軽減できるが,本分析では,非タスク関連の特徴を捉えることで,モデルの性能向上を図っている。
これらの観察は、より少ない例でモデルのパフォーマンスを追求することは、病理学的予測行動を引き起こす可能性があることを警告する。
論文 参考訳(メタデータ) (2022-04-17T15:55:18Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Explain and Predict, and then Predict Again [6.865156063241553]
説明生成フェーズにおけるマルチタスク学習を用いたExPredを、効果的なトレードオフ説明と予測損失として提案します。
3つの多様な言語データセットに対するアプローチを幅広く評価しています。
論文 参考訳(メタデータ) (2021-01-11T19:36:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。