論文の概要: Prescriptive Process Monitoring Under Resource Constraints: A
Reinforcement Learning Approach
- arxiv url: http://arxiv.org/abs/2307.06564v2
- Date: Sat, 20 Jan 2024 12:49:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-23 21:13:22.576588
- Title: Prescriptive Process Monitoring Under Resource Constraints: A
Reinforcement Learning Approach
- Title(参考訳): 資源制約下における規範的プロセスモニタリング:強化学習アプローチ
- Authors: Mahmoud Shoush and Marlon Dumas
- Abstract要約: 強化学習は、試行錯誤を通じて介入政策を学ぶためのアプローチとして提案されている。
この領域における既存のアプローチは、プロセスの介入を行うのに利用可能なリソースの数が無制限であると仮定する。
本稿では、資源制約の存在下では、規範的プロセス監視の分野における重要なジレンマは、その必要性、スケジュール、効果の予測だけでなく、これらの予測の不確実性や資源利用のレベルにも基づく介入をトリガーすることである、と論じる。
- 参考スコア(独自算出の注目度): 0.3807314298073301
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Prescriptive process monitoring methods seek to optimize the performance of
business processes by triggering interventions at runtime, thereby increasing
the probability of positive case outcomes. These interventions are triggered
according to an intervention policy. Reinforcement learning has been put
forward as an approach to learning intervention policies through trial and
error. Existing approaches in this space assume that the number of resources
available to perform interventions in a process is unlimited, an unrealistic
assumption in practice. This paper argues that, in the presence of resource
constraints, a key dilemma in the field of prescriptive process monitoring is
to trigger interventions based not only on predictions of their necessity,
timeliness, or effect but also on the uncertainty of these predictions and the
level of resource utilization. Indeed, committing scarce resources to an
intervention when the necessity or effects of this intervention are highly
uncertain may intuitively lead to suboptimal intervention effects. Accordingly,
the paper proposes a reinforcement learning approach for prescriptive process
monitoring that leverages conformal prediction techniques to consider the
uncertainty of the predictions upon which an intervention decision is based. An
evaluation using real-life datasets demonstrates that explicitly modeling
uncertainty using conformal predictions helps reinforcement learning agents
converge towards policies with higher net intervention gain
- Abstract(参考訳): 定型的なプロセス監視手法は,実行時に介入をトリガーすることでビジネスプロセスのパフォーマンスを最適化し,前向きなケース結果の確率を高める。
これらの介入は介入政策に従って引き起こされる。
強化学習は試行錯誤を通じて介入政策を学ぶためのアプローチとして提案されている。
この領域における既存のアプローチは、プロセスの介入を行うのに利用可能なリソースの数は無制限であり、実際には非現実的な仮定である。
本稿では, 資源制約の存在下では, 規範的プロセス監視の分野における重要なジレンマは, その必要性, 時系列, 効果の予測だけでなく, それらの予測の不確実性と資源利用のレベルにも基いて介入を促すことである。
実際、この介入の必要性や効果が極めて不確実な場合、介入に少ないリソースをコミットすると、直感的に最適な介入効果をもたらす可能性がある。
そこで本稿では, 干渉決定に基づく予測の不確実性を検討するために, 整合予測技術を活用した規範的プロセス監視のための強化学習手法を提案する。
実生活データセットを用いた評価は、共形予測を用いた不確かさを明示的にモデル化することで、強化学習エージェントがネット介入率の高いポリシーに収束することを示す。
関連論文リスト
- Conformal Counterfactual Inference under Hidden Confounding [19.190396053530417]
反ファクトの世界における潜在的な結果の予測と不確実性は、因果推論における因果的問題を引き起こす。
反事実に対する信頼区間を構成する既存の方法は、強い無知の仮定に依存する。
提案手法は, 限界収束保証付き実測結果に対する信頼区間を提供するトランスダクティブ重み付き共形予測に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-20T21:43:43Z) - Reduced-Rank Multi-objective Policy Learning and Optimization [57.978477569678844]
実際には、因果研究者は先験を念頭において1つの結果を持っていない。
政府支援の社会福祉プログラムでは、政策立案者は貧困の多次元的性質を理解するために多くの成果を集めている。
本稿では、最適政策学習の文脈において、複数の結果に対するデータ駆動型次元性推論手法を提案する。
論文 参考訳(メタデータ) (2024-04-29T08:16:30Z) - Quantification of Predictive Uncertainty via Inference-Time Sampling [57.749601811982096]
本稿では,データあいまいさの予測不確実性を推定するためのポストホックサンプリング手法を提案する。
この方法は与えられた入力に対して異なる可算出力を生成することができ、予測分布のパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2023-08-03T12:43:21Z) - Assessing the Impact of Context Inference Error and Partial
Observability on RL Methods for Just-In-Time Adaptive Interventions [12.762365585427377]
ジャスト・イン・タイム・アダプティブ・インターベンション(Just-in-Time Adaptive Interventions, JITAI)は、行動科学コミュニティ内で開発されたパーソナライズされた健康介入のクラスである。
JITAIは、事前定義されたコンポーネントセットから介入オプションのシーケンスを反復的に選択することで、適切なタイプとサポート量を提供することを目指している。
本研究では,文脈推定誤差と部分観測可能性が効果的な政策学習能力に与える影響について検討する。
論文 参考訳(メタデータ) (2023-05-17T02:46:37Z) - Intervening With Confidence: Conformal Prescriptive Monitoring of
Business Processes [0.7487718119544158]
本稿では,既存の規範的プロセス監視手法を信頼性保証付き予測で拡張する手法を提案する。
実生活の公開データセットを用いた実証評価では、コンフォメーション予測は限られたリソース下での規範的プロセス監視手法の純利を高めることが示されている。
論文 参考訳(メタデータ) (2022-12-07T15:29:21Z) - Boosting the interpretability of clinical risk scores with intervention
predictions [59.22442473992704]
本稿では、今後の介入に関するモデルの仮定を明確に伝達する手段として、介入政策と有害事象リスクの合同モデルを提案する。
死亡確率などの典型的なリスクスコアと将来の介入確率スコアとを組み合わせることで、より解釈可能な臨床予測がもたらされることを示す。
論文 参考訳(メタデータ) (2022-07-06T19:49:42Z) - When to intervene? Prescriptive Process Monitoring Under Uncertainty and
Resource Constraints [0.7487718119544158]
規範的なプロセス監視アプローチは、過去のデータを活用して実行時の介入を規定する。
この分野での以前の提案は、与えられたケースの現在の状態のみを考慮した介入ポリシーに依存している。
本稿では,予測スコア,予測の不確実性,介入の因果効果に基づいて進行中の事例をフィルタリング・ランク付けし,利得関数を最大化するために介入をトリガーする規範的プロセス監視手法を導入することにより,これらのギャップに対処する。
論文 参考訳(メタデータ) (2022-06-15T18:18:33Z) - Prescriptive Process Monitoring: Quo Vadis? [64.39761523935613]
本論文はシステム文献レビュー(SLR)を通して,本分野における既存手法について考察する。
SLRは今後の研究の課題や分野に関する洞察を提供し、規範的なプロセス監視手法の有用性と適用性を高めることができる。
論文 参考訳(メタデータ) (2021-12-03T08:06:24Z) - Prescriptive Process Monitoring Under Resource Constraints: A Causal
Inference Approach [0.9645196221785693]
既存の規範的なプロセス監視技術は、トリガーされる可能性のある介入の数が無制限であると仮定する。
本稿では,固定資源制約下でのコスト関数を最適化するために介入をトリガーする規範的プロセス監視手法を提案する。
論文 参考訳(メタデータ) (2021-09-07T06:42:33Z) - Reliable Off-policy Evaluation for Reinforcement Learning [53.486680020852724]
シーケンシャルな意思決定問題において、非政治評価は、目標政策の期待累積報酬を推定する。
本稿では、1つまたは複数のログデータを用いて、ロバストで楽観的な累積報酬推定を提供する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-08T23:16:19Z) - Counterfactual Predictions under Runtime Confounding [74.90756694584839]
本研究は, 過去のデータからすべての関連要因を抽出した環境で, 事実予測タスクについて検討する。
本稿では,この環境下での対実予測モデル学習のための2次ロバスト手法を提案する。
論文 参考訳(メタデータ) (2020-06-30T15:49:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。