論文の概要: Building Interpretable Models for Business Process Prediction using
Shared and Specialised Attention Mechanisms
- arxiv url: http://arxiv.org/abs/2109.01419v1
- Date: Fri, 3 Sep 2021 10:17:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-06 14:06:05.285808
- Title: Building Interpretable Models for Business Process Prediction using
Shared and Specialised Attention Mechanisms
- Title(参考訳): 共有および特殊注意機構を用いたビジネスプロセス予測のための解釈可能なモデルの構築
- Authors: Bemali Wickramanayake, Zhipeng He, Chun Ouyang, Catarina Moreira, Yue
Xu, Renuka Sindhgatta
- Abstract要約: 我々は、解釈可能なモデルを構築することにより、予測プロセス分析における「ブラックボックス」問題に対処する。
本稿では,特定のプロセスイベントが予測に与える影響を捉えるイベントアテンションと,その予測に影響を及ぼすイベントの属性を明らかにする属性アテンションの2つのタイプを提案する。
- 参考スコア(独自算出の注目度): 5.607831842909669
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we address the "black-box" problem in predictive process
analytics by building interpretable models that are capable to inform both what
and why is a prediction. Predictive process analytics is a newly emerged
discipline dedicated to providing business process intelligence in modern
organisations. It uses event logs, which capture process execution traces in
the form of multi-dimensional sequence data, as the key input to train
predictive models. These predictive models, often built upon deep learning
techniques, can be used to make predictions about the future states of business
process execution. We apply attention mechanism to achieve model
interpretability. We propose i) two types of attentions: event attention to
capture the impact of specific process events on a prediction, and attribute
attention to reveal which attribute(s) of an event influenced the prediction;
and ii) two attention mechanisms: shared attention mechanism and specialised
attention mechanism to reflect different design decisions in when to construct
attribute attention on individual input features (specialised) or using the
concatenated feature tensor of all input feature vectors (shared). These lead
to two distinct attention-based models, and both are interpretable models that
incorporate interpretability directly into the structure of a process
predictive model. We conduct experimental evaluation of the proposed models
using real-life dataset, and comparative analysis between the models for
accuracy and interpretability, and draw insights from the evaluation and
analysis results.
- Abstract(参考訳): 本稿では,予測プロセス解析における「ブラックボックス」問題に対処し,予測がなぜ何であるかを予測可能な解釈可能なモデルを構築する。
予測プロセス分析は、現代の組織でビジネスプロセスインテリジェンスを提供するために新しく登場した分野です。
イベントログを使用して、多次元シーケンスデータの形式でプロセス実行トレースをキャプチャし、予測モデルをトレーニングするためのキー入力とする。
これらの予測モデルは、しばしばディープラーニング技術に基づいて構築され、ビジネスプロセス実行の将来の状態を予測するために使用することができる。
モデル解釈性を達成するために注意機構を適用する。
We propose i) two types of attentions: event attention to capture the impact of specific process events on a prediction, and attribute attention to reveal which attribute(s) of an event influenced the prediction; and ii) two attention mechanisms: shared attention mechanism and specialised attention mechanism to reflect different design decisions in when to construct attribute attention on individual input features (specialised) or using the concatenated feature tensor of all input feature vectors (shared).
これらは2つの異なる注意に基づくモデルをもたらし、どちらも解釈可能性を直接プロセス予測モデルの構造に組み込む解釈可能なモデルである。
実生活データセットを用いて提案モデルの実験的評価を行い、精度と解釈可能性のモデル間の比較分析を行い、評価結果と分析結果から洞察を得る。
関連論文リスト
- Explanatory Model Monitoring to Understand the Effects of Feature Shifts on Performance [61.06245197347139]
そこで本研究では,機能シフトによるブラックボックスモデルの振る舞いを説明する新しい手法を提案する。
本稿では,最適輸送と共有値の概念を組み合わせた提案手法について,説明的性能推定として紹介する。
論文 参考訳(メタデータ) (2024-08-24T18:28:19Z) - Attention Please: What Transformer Models Really Learn for Process Prediction [0.0]
本稿では, 変圧器をベースとした次活動予測モデルの注意点が, 意思決定の根拠となるかどうかを考察する。
我々は,次の活動予測モデルにおける注意点が説明役として機能し,この事実を2つのグラフに基づく説明手法で活用できることを見出した。
論文 参考訳(メタデータ) (2024-08-12T08:20:38Z) - Predictive Churn with the Set of Good Models [64.05949860750235]
近似機械学習モデルの集合に対する競合予測の効果について検討する。
ラーショモン集合内のモデル間の係り受けに関する理論的結果を示す。
当社のアプローチは、コンシューマ向けアプリケーションにおいて、より予測し、削減し、混乱を避けるためにどのように使用できるかを示します。
論文 参考訳(メタデータ) (2024-02-12T16:15:25Z) - Causal Analysis for Robust Interpretability of Neural Networks [0.2519906683279152]
我々は、事前学習されたニューラルネットワークの因果効果を捉えるための頑健な介入に基づく手法を開発した。
分類タスクで訓練された視覚モデルに本手法を適用した。
論文 参考訳(メタデータ) (2023-05-15T18:37:24Z) - Pathologies of Pre-trained Language Models in Few-shot Fine-tuning [50.3686606679048]
実例が少ない事前学習言語モデルはラベル間に強い予測バイアスを示すことを示す。
わずかな微調整で予測バイアスを軽減できるが,本分析では,非タスク関連の特徴を捉えることで,モデルの性能向上を図っている。
これらの観察は、より少ない例でモデルのパフォーマンスを追求することは、病理学的予測行動を引き起こす可能性があることを警告する。
論文 参考訳(メタデータ) (2022-04-17T15:55:18Z) - Joint Forecasting of Panoptic Segmentations with Difference Attention [72.03470153917189]
シーン内の全てのオブジェクトを共同で予測する新しいパノプティックセグメンテーション予測モデルについて検討する。
提案したモデルをCityscapesとAIODriveデータセット上で評価する。
論文 参考訳(メタデータ) (2022-04-14T17:59:32Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Explainable AI Enabled Inspection of Business Process Prediction Models [2.5229940062544496]
本稿では,モデル説明を用いて,機械学習の予測によって適用された推論を解析する手法を提案する。
本手法の新たな貢献は,解釈可能な機械学習機構によって生成された説明と,過去のプロセス実行を記録するイベントログから抽出された文脈的,あるいはドメイン的知識の両方を活用するモデル検査の提案である。
論文 参考訳(メタデータ) (2021-07-16T06:51:18Z) - Forethought and Hindsight in Credit Assignment [62.05690959741223]
我々は、前向きモデルや後向きモデルによる後向き操作による予測として使われる計画の利益と特異性を理解するために活動する。
本稿では,予測を(再)評価すべき状態の選択に主眼を置いて,計画におけるモデルの利用について検討する。
論文 参考訳(メタデータ) (2020-10-26T16:00:47Z) - Introduction to Rare-Event Predictive Modeling for Inferential
Statisticians -- A Hands-On Application in the Prediction of Breakthrough
Patents [0.0]
本稿では,予測性能の最適化を目的とした定量的分析のための機械学習(ML)手法を提案する。
両フィールド間の潜在的な相乗効果について考察する。
我々は,コンピュータサイエンスの用語のデミスティフィケーションを目指して,定量的な社会科学の聴衆に手持ちの予測モデルの導入を行っている。
論文 参考訳(メタデータ) (2020-03-30T13:06:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。