論文の概要: Self-Explaining Neural Networks for Business Process Monitoring
- arxiv url: http://arxiv.org/abs/2503.18067v1
- Date: Sun, 23 Mar 2025 13:28:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-25 14:34:49.229732
- Title: Self-Explaining Neural Networks for Business Process Monitoring
- Title(参考訳): ビジネスプロセスモニタリングのための自己説明型ニューラルネットワーク
- Authors: Shahaf Bassan, Shlomit Gur, Sergey Zeltyn, Konstantinos Mavrogiorgos, Ron Eliav, Dimosthenis Kyriazis,
- Abstract要約: 我々は、私たちの知る限り、予測プロセス監視のための最初の*自己説明型ニューラルネットワーク*アーキテクチャを紹介します。
我々のフレームワークは、予測を提供するだけでなく、予測ごとに簡潔な説明を出力するLSTMモデルを訓練する。
提案手法は, 生成した説明の忠実さと効率の大幅な向上の両面から, ポストホックアプローチよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 2.8499886197917443
- License:
- Abstract: Tasks in Predictive Business Process Monitoring (PBPM), such as Next Activity Prediction, focus on generating useful business predictions from historical case logs. Recently, Deep Learning methods, particularly sequence-to-sequence models like Long Short-Term Memory (LSTM), have become a dominant approach for tackling these tasks. However, to enhance model transparency, build trust in the predictions, and gain a deeper understanding of business processes, it is crucial to explain the decisions made by these models. Existing explainability methods for PBPM decisions are typically *post-hoc*, meaning they provide explanations only after the model has been trained. Unfortunately, these post-hoc approaches have shown to face various challenges, including lack of faithfulness, high computational costs and a significant sensitivity to out-of-distribution samples. In this work, we introduce, to the best of our knowledge, the first *self-explaining neural network* architecture for predictive process monitoring. Our framework trains an LSTM model that not only provides predictions but also outputs a concise explanation for each prediction, while adapting the optimization objective to improve the reliability of the explanation. We first demonstrate that incorporating explainability into the training process does not hurt model performance, and in some cases, actually improves it. Additionally, we show that our method outperforms post-hoc approaches in terms of both the faithfulness of the generated explanations and substantial improvements in efficiency.
- Abstract(参考訳): 次活動予測(Next Activity Prediction)のような予測ビジネスプロセス監視(PBPM)のタスクは、過去のケースログから有用なビジネス予測を生成することに焦点を当てます。
近年,Long Short-Term Memory (LSTM) のようなシーケンシャル・ツー・シーケンス・モデルを用いたディープラーニング手法が,これらの課題に対処するための主要なアプローチとなっている。
しかし、モデルの透明性を高め、予測を信頼し、ビジネスプロセスをより深く理解するためには、これらのモデルによる決定を説明することが不可欠である。
PBPM決定の既存の説明可能性メソッドは、通常*ポストホック*であり、モデルがトレーニングされた後にのみ説明を提供する。
残念なことに、これらのポストホックアプローチは、忠実性の欠如、高い計算コスト、配布外サンプルに対する顕著な感度など、様々な課題に直面している。
本稿では、予測プロセス監視のための最初の*自己説明型ニューラルネットワーク*アーキテクチャについて、私たちの知る限りで紹介する。
我々のフレームワークは,予測を提供するだけでなく,各予測に対して簡潔な説明を出力するLSTMモデルを訓練し,最適化目標を適用して説明の信頼性を向上させる。
まず、トレーニングプロセスに説明可能性を導入することで、モデルのパフォーマンスが損なわれず、場合によっては実際に改善されることを実証します。
さらに,本手法は,生成した説明の忠実さと効率の大幅な改善の両方の観点から,ポストホック手法よりも優れていることを示す。
関連論文リスト
- Explanatory Model Monitoring to Understand the Effects of Feature Shifts on Performance [61.06245197347139]
そこで本研究では,機能シフトによるブラックボックスモデルの振る舞いを説明する新しい手法を提案する。
本稿では,最適輸送と共有値の概念を組み合わせた提案手法について,説明的性能推定として紹介する。
論文 参考訳(メタデータ) (2024-08-24T18:28:19Z) - Low-rank finetuning for LLMs: A fairness perspective [54.13240282850982]
低ランク近似技術は、微調整された大規模言語モデルのデファクトスタンダードとなっている。
本稿では,これらの手法が初期訓練済みデータ分布から微調整データセットのシフトを捉える上での有効性について検討する。
低ランク微調整は好ましくない偏見や有害な振る舞いを必然的に保存することを示す。
論文 参考訳(メタデータ) (2024-05-28T20:43:53Z) - Generating Feasible and Plausible Counterfactual Explanations for Outcome Prediction of Business Processes [45.502284864662585]
データ駆動型アプローチであるREVISEDplusを導入し、妥当な対実的説明を生成する。
まず, プロセスデータの高密度領域内に存在する反ファクトデータを生成するために, 反ファクトアルゴリズムを限定する。
また、プロセスケースにおけるアクティビティ間のシーケンシャルなパターンを学習することで、妥当性を保証します。
論文 参考訳(メタデータ) (2024-03-14T09:56:35Z) - Knowledge-Driven Modulation of Neural Networks with Attention Mechanism
for Next Activity Prediction [8.552757384215813]
本稿では、手続き的プロセスモデルを用いて表現された背景知識を利用して、トレーニングデータのアンダーサンプリングをオフセットするシンボリック[Neuro]システムを提案する。
具体的には,NN分野における新たな技術であるアテンション機構を備えたNNを用いた予測を行う。
このシステムは、予測タスクの性能改善を示す複数の実生活ログでテストされている。
論文 参考訳(メタデータ) (2023-12-14T12:02:35Z) - Faithful Explanations of Black-box NLP Models Using LLM-generated
Counterfactuals [67.64770842323966]
NLPシステムの予測に関する因果的説明は、安全性を確保し、信頼を確立するために不可欠である。
既存の手法は、しばしばモデル予測を効果的または効率的に説明できない。
本稿では, 対物近似(CF)の2つの手法を提案する。
論文 参考訳(メタデータ) (2023-10-01T07:31:04Z) - Evaluating and Explaining Large Language Models for Code Using Syntactic
Structures [74.93762031957883]
本稿では,コード用大規模言語モデルに特有の説明可能性手法であるASTxplainerを紹介する。
その中核にあるASTxplainerは、トークン予測をASTノードに整合させる自動メソッドを提供する。
私たちは、最も人気のあるGitHubプロジェクトのキュレートデータセットを使用して、コード用の12の人気のあるLLMに対して、実証的な評価を行います。
論文 参考訳(メタデータ) (2023-08-07T18:50:57Z) - Explaining Language Models' Predictions with High-Impact Concepts [11.47612457613113]
概念ベースの解釈可能性手法をNLPに拡張するための完全なフレームワークを提案する。
出力予測が大幅に変化する特徴を最適化する。
本手法は, ベースラインと比較して, 予測的影響, ユーザビリティ, 忠実度に関する優れた結果が得られる。
論文 参考訳(メタデータ) (2023-05-03T14:48:27Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Explaining and Improving Model Behavior with k Nearest Neighbor
Representations [107.24850861390196]
モデルの予測に責任のあるトレーニング例を特定するために, k 近傍表現を提案する。
我々は,kNN表現が学習した素因関係を明らかにするのに有効であることを示す。
以上の結果から,kNN手法により,直交モデルが逆入力に対してより堅牢であることが示唆された。
論文 参考訳(メタデータ) (2020-10-18T16:55:25Z) - Introduction to Rare-Event Predictive Modeling for Inferential
Statisticians -- A Hands-On Application in the Prediction of Breakthrough
Patents [0.0]
本稿では,予測性能の最適化を目的とした定量的分析のための機械学習(ML)手法を提案する。
両フィールド間の潜在的な相乗効果について考察する。
我々は,コンピュータサイエンスの用語のデミスティフィケーションを目指して,定量的な社会科学の聴衆に手持ちの予測モデルの導入を行っている。
論文 参考訳(メタデータ) (2020-03-30T13:06:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。