論文の概要: Explain, Adapt and Retrain: How to improve the accuracy of a PPM
classifier through different explanation styles
- arxiv url: http://arxiv.org/abs/2303.14939v1
- Date: Mon, 27 Mar 2023 06:37:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 16:45:59.209065
- Title: Explain, Adapt and Retrain: How to improve the accuracy of a PPM
classifier through different explanation styles
- Title(参考訳): 説明・適応・再訓練:異なる説明方法によるPPM分類器の精度向上方法
- Authors: Williams Rizzi and Chiara Di Francescomarino and Chiara Ghidini and
Fabrizio Maria Maggi
- Abstract要約: 最近の論文では、結果指向の予測に予測プロセスモニタリングモデルがなぜ間違った予測を提供するのかを説明するための新しいアプローチが紹介されている。
半自動的な方法でミスを犯す予測者を誘導する最も一般的な特徴を特定するために、説明を利用する方法を示す。
- 参考スコア(独自算出の注目度): 4.6281736192809575
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent papers have introduced a novel approach to explain why a Predictive
Process Monitoring (PPM) model for outcome-oriented predictions provides wrong
predictions. Moreover, they have shown how to exploit the explanations,
obtained using state-of-the art post-hoc explainers, to identify the most
common features that induce a predictor to make mistakes in a semi-automated
way, and, in turn, to reduce the impact of those features and increase the
accuracy of the predictive model. This work starts from the assumption that
frequent control flow patterns in event logs may represent important features
that characterize, and therefore explain, a certain prediction. Therefore, in
this paper, we (i) employ a novel encoding able to leverage DECLARE constraints
in Predictive Process Monitoring and compare the effectiveness of this encoding
with Predictive Process Monitoring state-of-the art encodings, in particular
for the task of outcome-oriented predictions; (ii) introduce a completely
automated pipeline for the identification of the most common features inducing
a predictor to make mistakes; and (iii) show the effectiveness of the proposed
pipeline in increasing the accuracy of the predictive model by validating it on
different real-life datasets.
- Abstract(参考訳): 最近の論文では、結果指向予測のための予測プロセス監視(ppm)モデルが誤った予測をもたらす理由を説明するための新しいアプローチが紹介されている。
さらに,最先端のポストホック説明器を用いて得られた説明を活用し,予測者が半自動的に誤りを生じさせる最も一般的な特徴を特定し,その特徴の影響を低減し,予測モデルの精度を向上させる方法を示した。
この研究は、イベントログにおける頻繁な制御フローパターンが、特定の予測を特徴付ける重要な特徴を表すかもしれないという仮定から始まる。
したがって、本稿では、
二 予測プロセスモニタリングにおいて、DECLARE制約を活用でき、この符号化の有効性を予測プロセスモニタリング、特に結果指向予測のタスクにおいて比較することができる新規なエンコーディングを用いる。
(ii) 予測者にミスを起こさせる最も一般的な特徴を特定するために、完全に自動化されたパイプラインを導入する。
3) 提案したパイプラインは, 異なる実生活データセット上で検証することにより, 予測モデルの精度を高める効果を示す。
関連論文リスト
- Online detection of forecast model inadequacies using forecast errors [0.0]
予測の正確性を維持するために,予測のオンライン監視のための新しいフレームワークを提案する。
予測誤差の逐次的変化点手法を利用することで,外部要因によるプロセスの潜在的な変化をリアルタイムに識別することができる。
理論的には、基礎となるプロセスに共通する変化が予測誤差に現れ、予測誤差のシフトを元のモデリングフレームワークよりも早く識別できることが示される。
論文 参考訳(メタデータ) (2025-02-20T00:56:51Z) - Enhancing Performance of Explainable AI Models with Constrained Concept Refinement [10.241134756773228]
正確性と解釈可能性のトレードオフは、機械学習(ML)における長年の課題である。
本稿では,概念表現における偏差の影響について検討し,これらの効果を緩和するための新しい枠組みを提案する。
従来の説明可能な手法と比較して,提案手法は様々な大規模ベンチマークにおいてモデル解釈可能性を維持しながら予測精度を向上するだけでなく,計算コストを大幅に削減する。
論文 参考訳(メタデータ) (2025-02-10T18:53:15Z) - Influence Functions for Scalable Data Attribution in Diffusion Models [52.92223039302037]
拡散モデルは、生成的モデリングに大きな進歩をもたらした。
しかし、彼らの普及はデータ属性と解釈可能性に関する課題を引き起こす。
これらの課題に対処するための影響関数フレームワークを開発する。
論文 参考訳(メタデータ) (2024-10-17T17:59:02Z) - Explanatory Model Monitoring to Understand the Effects of Feature Shifts on Performance [61.06245197347139]
そこで本研究では,機能シフトによるブラックボックスモデルの振る舞いを説明する新しい手法を提案する。
本稿では,最適輸送と共有値の概念を組み合わせた提案手法について,説明的性能推定として紹介する。
論文 参考訳(メタデータ) (2024-08-24T18:28:19Z) - Prediction-Oriented Bayesian Active Learning [51.426960808684655]
予測情報ゲイン(EPIG)は、パラメータではなく予測空間における情報ゲインを測定する。
EPIGは、さまざまなデータセットやモデルにわたるBALDと比較して、予測パフォーマンスが向上する。
論文 参考訳(メタデータ) (2023-04-17T10:59:57Z) - Improving Adaptive Conformal Prediction Using Self-Supervised Learning [72.2614468437919]
我々は、既存の予測モデルの上に自己教師付きプレテキストタスクを持つ補助モデルを訓練し、自己教師付きエラーを付加的な特徴として用いて、非整合性スコアを推定する。
合成データと実データの両方を用いて、効率(幅)、欠陥、共形予測間隔の超過といった付加情報の利点を実証的に実証する。
論文 参考訳(メタデータ) (2023-02-23T18:57:14Z) - Performance Prediction Under Dataset Shift [1.1602089225841632]
生成した合成摂動を学習し,様々な性能予測モデルの新たな領域への一般化能力について検討する。
本稿では,性能予測器の信頼性を保証するために,予測精度の自然な不確実性評価を提案する。
論文 参考訳(メタデータ) (2022-06-21T19:40:58Z) - Pathologies of Pre-trained Language Models in Few-shot Fine-tuning [50.3686606679048]
実例が少ない事前学習言語モデルはラベル間に強い予測バイアスを示すことを示す。
わずかな微調整で予測バイアスを軽減できるが,本分析では,非タスク関連の特徴を捉えることで,モデルの性能向上を図っている。
これらの観察は、より少ない例でモデルのパフォーマンスを追求することは、病理学的予測行動を引き起こす可能性があることを警告する。
論文 参考訳(メタデータ) (2022-04-17T15:55:18Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Explain and Predict, and then Predict Again [6.865156063241553]
説明生成フェーズにおけるマルチタスク学習を用いたExPredを、効果的なトレードオフ説明と予測損失として提案します。
3つの多様な言語データセットに対するアプローチを幅広く評価しています。
論文 参考訳(メタデータ) (2021-01-11T19:36:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。