論文の概要: Exploring LLM Features in Predictive Process Monitoring for Small-Scale Event-Logs
- arxiv url: http://arxiv.org/abs/2601.11468v1
- Date: Fri, 16 Jan 2026 17:54:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-19 20:21:50.585577
- Title: Exploring LLM Features in Predictive Process Monitoring for Small-Scale Event-Logs
- Title(参考訳): 小規模イベントログの予測プロセスモニタリングにおけるLCM機能の検討
- Authors: Alessandro Padella, Massimiliano de Leoni, Marlon Dumas,
- Abstract要約: 当初、プロンプトを通じて全時間予測に重点を置いていた予測プロセス監視フレームワークを拡張しました。
この拡張は、その一般化、セマンティックレバレッジ、推論メカニズムを包括的に評価する。
実験により、LLMは事前知識の具体化とトレーニングトレースの内的相関の両方を利用することが示された。
- 参考スコア(独自算出の注目度): 43.010073925519244
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Predictive Process Monitoring is a branch of process mining that aims to predict the outcome of an ongoing process. Recently, it leveraged machine-and-deep learning architectures. In this paper, we extend our prior LLM-based Predictive Process Monitoring framework, which was initially focused on total time prediction via prompting. The extension consists of comprehensively evaluating its generality, semantic leverage, and reasoning mechanisms, also across multiple Key Performance Indicators. Empirical evaluations conducted on three distinct event logs and across the Key Performance Indicators of Total Time and Activity Occurrence prediction indicate that, in data-scarce settings with only 100 traces, the LLM surpasses the benchmark methods. Furthermore, the experiments also show that the LLM exploits both its embodied prior knowledge and the internal correlations among training traces. Finally, we examine the reasoning strategies employed by the model, demonstrating that the LLM does not merely replicate existing predictive methods but performs higher-order reasoning to generate the predictions.
- Abstract(参考訳): 予測プロセスモニタリング(英: Predictive Process Monitoring)は、プロセスマイニングの一分野であり、進行中のプロセスの結果を予測することを目的としている。
最近、機械学習アーキテクチャを活用している。
本稿では,従来のLCMベースの予測プロセス監視フレームワークを拡張した。
この拡張は、その汎用性、セマンティックレバレッジ、推論メカニズムを包括的に評価し、複数のキーパフォーマンス指標にまたがる。
3つの異なるイベントログと、トータルタイムとアクティビティオーカレンス予測のキーパフォーマンス指標で実施された経験的評価は、100のトレースしか持たないデータスカース設定では、LLMがベンチマークメソッドを上回っていることを示している。
さらに, 実験により, LLMは事前知識の具体化とトレーニングトレースの内的相関を生かしていることがわかった。
最後に,LLMが既存の予測手法を複製するだけでなく,予測を生成するために高次推論を行うことを示す。
関連論文リスト
- How Does the Pretraining Distribution Shape In-Context Learning? Task Selection, Generalization, and Robustness [6.723482324209954]
計算課題における事前学習分布形状 ICL の統計的特性について述べる。
我々は,タスク選択と一般化を統一し,先行結果を拡張・短縮する理論的枠組みを開発する。
次に、課題タスクの事前学習分布によって、ICLの性能がどのように変化するかを実証的に研究する。
論文 参考訳(メタデータ) (2025-10-01T17:52:29Z) - Domain Adaptation of LLMs for Process Data [7.611051482274626]
大規模言語モデル(LLM)は,プロセスマイニング(PM)など,さまざまな研究領域において注目の的となっている。
本研究では,事前学習したLLMの自然言語再構成なしでの処理データへの直接適応について検討した。
より具体的には、パラメータ効率のよい微調整技術に注目し、そのようなモデルに典型的に関連する計算オーバーヘッドを軽減する。
論文 参考訳(メタデータ) (2025-09-03T09:21:35Z) - Agentic Reinforced Policy Optimization [66.96989268893932]
検証可能な報酬付き大規模強化学習(RLVR)は,大規模言語モデル(LLM)を単一ターン推論タスクに活用する効果を実証している。
現在のRLアルゴリズムは、モデル固有のロングホライゾン推論能力と、マルチターンツールインタラクションにおけるその習熟性のバランスが不十分である。
エージェント強化ポリシー最適化(ARPO: Agentic Reinforced Policy Optimization)は,マルチターンLDMエージェントを学習するためのエージェントRLアルゴリズムである。
論文 参考訳(メタデータ) (2025-07-26T07:53:11Z) - Leveraging Data Augmentation and Siamese Learning for Predictive Process Monitoring [42.41842916853241]
SiamSA-PPMは、Siamese学習と予測プロセス監視のための統計的拡張を組み合わせた、自己教師型学習フレームワークである。
また,SiamSA-PPMは,次の活動および最終結果予測タスクにおいて,SOTAと比較して,競争力や優れた性能を発揮することを示した。
論文 参考訳(メタデータ) (2025-07-24T10:57:20Z) - Agentic Predictor: Performance Prediction for Agentic Workflows via Multi-View Encoding [56.565200973244146]
Agentic Predictorは、効率的なエージェントワークフロー評価のための軽量な予測器である。
Agentic Predictorはタスク成功率の近似を学ぶことで、最適なエージェントワークフロー構成の迅速かつ正確な選択を可能にする。
論文 参考訳(メタデータ) (2025-05-26T09:46:50Z) - Self-Explaining Neural Networks for Business Process Monitoring [2.8499886197917443]
我々は、私たちの知る限り、予測プロセス監視のための最初の*自己説明型ニューラルネットワーク*アーキテクチャを紹介します。
我々のフレームワークは、予測を提供するだけでなく、予測ごとに簡潔な説明を出力するLSTMモデルを訓練する。
提案手法は, 生成した説明の忠実さと効率の大幅な向上の両面から, ポストホックアプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2025-03-23T13:28:34Z) - Scaling Laws for Predicting Downstream Performance in LLMs [75.28559015477137]
この研究は、性能推定のためのより計算効率のよい指標として、事前学習損失に焦点を当てている。
FLP-Mは、事前トレーニング中に複数のソースからのデータセットを統合する実践的なニーズに対処する、パフォーマンス予測の基本的なアプローチである。
論文 参考訳(メタデータ) (2024-10-11T04:57:48Z) - Towards Modeling Learner Performance with Large Language Models [7.002923425715133]
本稿では,LLMのパターン認識とシーケンスモデリング機能が,知識追跡の領域にまで拡張できるかどうかを検討する。
ゼロショットプロンプト(ゼロショットプロンプト)とモデル微調整(モデル微調整)の2つの手法と,既存のLLM以外の知識追跡手法を比較した。
LLMベースのアプローチは最先端のパフォーマンスを達成しないが、微調整のLLMは素早いベースラインモデルの性能を上回り、標準的なベイズ的知識追跡手法と同等に機能する。
論文 参考訳(メタデータ) (2024-02-29T14:06:34Z) - Iterative Forward Tuning Boosts In-Context Learning in Language Models [88.25013390669845]
本研究では,大規模言語モデル(LLM)における文脈内学習を促進する新しい2段階フレームワークを提案する。
具体的には、当社のフレームワークでは、ICLプロセスをDeep-ThinkingとTest Stageの2つの別々のステージに分類しています。
ディープシンキング段階にはユニークな注意機構、すなわち反復的な注意強化機構が組み込まれており、複数の情報の蓄積を可能にしている。
論文 参考訳(メタデータ) (2023-05-22T13:18:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。