論文の概要: Attention Please: What Transformer Models Really Learn for Process Prediction
- arxiv url: http://arxiv.org/abs/2408.07097v1
- Date: Mon, 12 Aug 2024 08:20:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-15 15:07:25.896676
- Title: Attention Please: What Transformer Models Really Learn for Process Prediction
- Title(参考訳): 注意: プロセス予測のためにトランスフォーマーモデルが本当に学んだこと
- Authors: Martin Käppel, Lars Ackermann, Stefan Jablonski, Simon Härtl,
- Abstract要約: 本稿では, 変圧器をベースとした次活動予測モデルの注意点が, 意思決定の根拠となるかどうかを考察する。
我々は,次の活動予測モデルにおける注意点が説明役として機能し,この事実を2つのグラフに基づく説明手法で活用できることを見出した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Predictive process monitoring aims to support the execution of a process during runtime with various predictions about the further evolution of a process instance. In the last years a plethora of deep learning architectures have been established as state-of-the-art for different prediction targets, among others the transformer architecture. The transformer architecture is equipped with a powerful attention mechanism, assigning attention scores to each input part that allows to prioritize most relevant information leading to more accurate and contextual output. However, deep learning models largely represent a black box, i.e., their reasoning or decision-making process cannot be understood in detail. This paper examines whether the attention scores of a transformer based next-activity prediction model can serve as an explanation for its decision-making. We find that attention scores in next-activity prediction models can serve as explainers and exploit this fact in two proposed graph-based explanation approaches. The gained insights could inspire future work on the improvement of predictive business process models as well as enabling a neural network based mining of process models from event logs.
- Abstract(参考訳): 予測プロセス監視は、プロセスインスタンスのさらなる進化について様々な予測を行い、実行中のプロセスの実行をサポートすることを目的としている。
近年では、トランスフォーマーアーキテクチャなど、さまざまな予測対象のための最先端のディープラーニングアーキテクチャが確立されている。
トランスアーキテクチャは強力なアテンション機構を備えており、各入力部にアテンションスコアを割り当て、より正確で文脈的な出力につながる最も関連性の高い情報を優先順位付けすることができる。
しかし、ディープラーニングモデルは、主にブラックボックス、すなわち、それらの推論や意思決定プロセスが詳細に理解できないことを代表している。
本稿では, 変圧器をベースとした次活動予測モデルの注意点が, 意思決定の根拠となるかどうかを考察する。
我々は,次の活動予測モデルにおける注意点が説明役として機能し,この事実を2つのグラフに基づく説明手法で活用できることを見出した。
得られた洞察は、予測ビジネスプロセスモデルの改善と、イベントログからプロセスモデルのニューラルネットワークによるマイニングを可能にする、将来の作業に刺激を与える可能性がある。
関連論文リスト
- Explanatory Model Monitoring to Understand the Effects of Feature Shifts on Performance [61.06245197347139]
そこで本研究では,機能シフトによるブラックボックスモデルの振る舞いを説明する新しい手法を提案する。
本稿では,最適輸送と共有値の概念を組み合わせた提案手法について,説明的性能推定として紹介する。
論文 参考訳(メタデータ) (2024-08-24T18:28:19Z) - Generating Feasible and Plausible Counterfactual Explanations for Outcome Prediction of Business Processes [45.502284864662585]
データ駆動型アプローチであるREVISEDplusを導入し、妥当な対実的説明を生成する。
まず, プロセスデータの高密度領域内に存在する反ファクトデータを生成するために, 反ファクトアルゴリズムを限定する。
また、プロセスケースにおけるアクティビティ間のシーケンシャルなパターンを学習することで、妥当性を保証します。
論文 参考訳(メタデータ) (2024-03-14T09:56:35Z) - Inter-case Predictive Process Monitoring: A candidate for Quantum
Machine Learning? [0.0]
この研究は、最近のケース間予測プロセスモニタリングの進歩に基づいている。
予測精度に対するケース間機能の影響を総合的にベンチマークする。
量子機械学習モデルが含まれており、古典的なモデルに勝るものと期待されている。
BPIチャレンジによる実世界のトレーニングデータの評価は、ケース間の特徴が精度の4%以上向上していることを示している。
論文 参考訳(メタデータ) (2023-06-30T18:33:45Z) - VCNet: A self-explaining model for realistic counterfactual generation [52.77024349608834]
事実的説明は、機械学習の決定を局所的に説明するための手法のクラスである。
本稿では,予測器と対実生成器を組み合わせたモデルアーキテクチャであるVCNet-Variational Counter Netを提案する。
我々はVCNetが予測を生成でき、また、別の最小化問題を解くことなく、反現実的な説明を生成できることを示した。
論文 参考訳(メタデータ) (2022-12-21T08:45:32Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Building Interpretable Models for Business Process Prediction using
Shared and Specialised Attention Mechanisms [5.607831842909669]
我々は、解釈可能なモデルを構築することにより、予測プロセス分析における「ブラックボックス」問題に対処する。
本稿では,特定のプロセスイベントが予測に与える影響を捉えるイベントアテンションと,その予測に影響を及ぼすイベントの属性を明らかにする属性アテンションの2つのタイプを提案する。
論文 参考訳(メタデータ) (2021-09-03T10:17:05Z) - Explainable AI Enabled Inspection of Business Process Prediction Models [2.5229940062544496]
本稿では,モデル説明を用いて,機械学習の予測によって適用された推論を解析する手法を提案する。
本手法の新たな貢献は,解釈可能な機械学習機構によって生成された説明と,過去のプロセス実行を記録するイベントログから抽出された文脈的,あるいはドメイン的知識の両方を活用するモデル検査の提案である。
論文 参考訳(メタデータ) (2021-07-16T06:51:18Z) - Multivariate Business Process Representation Learning utilizing Gramian
Angular Fields and Convolutional Neural Networks [0.0]
データの意味のある表現を学習することは、機械学習の重要な側面である。
予測的プロセス分析では、プロセスインスタンスのすべての説明的特性を利用できるようにすることが不可欠である。
本稿では,ビジネスプロセスインスタンスの表現学習のための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-15T10:21:14Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Forethought and Hindsight in Credit Assignment [62.05690959741223]
我々は、前向きモデルや後向きモデルによる後向き操作による予測として使われる計画の利益と特異性を理解するために活動する。
本稿では,予測を(再)評価すべき状態の選択に主眼を置いて,計画におけるモデルの利用について検討する。
論文 参考訳(メタデータ) (2020-10-26T16:00:47Z) - Value-driven Hindsight Modelling [68.658900923595]
値推定は強化学習(RL)パラダイムの重要な構成要素である。
モデル学習は、観測系列に存在する豊富な遷移構造を利用することができるが、このアプローチは通常、報酬関数に敏感ではない。
この2つの極点の間に位置するRLにおける表現学習のアプローチを開発する。
これにより、タスクに直接関連し、値関数の学習を加速できる、抽出可能な予測ターゲットが提供される。
論文 参考訳(メタデータ) (2020-02-19T18:10:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。