論文の概要: On the Simplification of Neural Network Architectures for Predictive Process Monitoring
- arxiv url: http://arxiv.org/abs/2509.17145v1
- Date: Sun, 21 Sep 2025 16:21:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.132725
- Title: On the Simplification of Neural Network Architectures for Predictive Process Monitoring
- Title(参考訳): 予測プロセスモニタリングのためのニューラルネットワークアーキテクチャの簡易化について
- Authors: Amaan Ansari, Lukas Kirchdorfer, Raheleh Hadian,
- Abstract要約: パラメータ数とアーキテクチャの深さの両面からモデル複雑性の低減が予測性能に与える影響を分析する。
その結果,Transformerモデルが85%縮小すると性能が2~3%低下することがわかった。
以上の結果から,モデル簡易化が予測精度を維持できる可能性が示唆された。
- 参考スコア(独自算出の注目度): 0.5735035463793009
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Predictive Process Monitoring (PPM) aims to forecast the future behavior of ongoing process instances using historical event data, enabling proactive decision-making. While recent advances rely heavily on deep learning models such as LSTMs and Transformers, their high computational cost hinders practical adoption. Prior work has explored data reduction techniques and alternative feature encodings, but the effect of simplifying model architectures themselves remains underexplored. In this paper, we analyze how reducing model complexity, both in terms of parameter count and architectural depth, impacts predictive performance, using two established PPM approaches. Across five diverse event logs, we show that shrinking the Transformer model by 85% results in only a 2-3% drop in performance across various PPM tasks, while the LSTM proves slightly more sensitive, particularly for waiting time prediction. Overall, our findings suggest that substantial model simplification can preserve predictive accuracy, paving the way for more efficient and scalable PPM solutions.
- Abstract(参考訳): Predictive Process Monitoring (PPM) は、過去のイベントデータを使用して進行中のプロセスインスタンスの将来の挙動を予測し、積極的な意思決定を可能にすることを目的としている。
近年の進歩はLSTMやTransformersのようなディープラーニングモデルに大きく依存しているが、その高い計算コストは実用化を妨げている。
これまでの研究では、データリダクション技術や代替機能エンコーディングについて検討されてきたが、モデルアーキテクチャ自体を単純化する効果はまだ未検討である。
本稿では,パラメータ数とアーキテクチャ深度の両方の観点から,モデル複雑性の低減が予測性能に与える影響を,2つの確立されたPPM手法を用いて分析する。
5つのイベントログにおいて,Transformerモデルを85%縮小すると,PSMタスク間で性能が2~3%低下するのに対し,LSTMは特に待ち時間予測においてやや敏感であることが示されている。
以上の結果から,より効率的でスケーラブルなPPMソリューションを実現するため,モデル簡易化が予測精度を維持することが示唆された。
関連論文リスト
- Domain Adaptation of LLMs for Process Data [7.611051482274626]
大規模言語モデル(LLM)は,プロセスマイニング(PM)など,さまざまな研究領域において注目の的となっている。
本研究では,事前学習したLLMの自然言語再構成なしでの処理データへの直接適応について検討した。
より具体的には、パラメータ効率のよい微調整技術に注目し、そのようなモデルに典型的に関連する計算オーバーヘッドを軽減する。
論文 参考訳(メタデータ) (2025-09-03T09:21:35Z) - Data-driven tool wear prediction in milling, based on a process-integrated single-sensor approach [1.6574413179773764]
本研究では,ツール摩耗予測のためのデータ駆動手法,特にディープラーニングについて検討する。
2つのプロセスで検証された最小限のトレーニングデータを用いて予測モデルの伝達可能性について検討した。
ConvNeXtモデルには例外的な性能があり、ツールの摩耗を識別する精度は99.1%である。
論文 参考訳(メタデータ) (2024-12-27T23:10:32Z) - Optimizing Sequential Recommendation Models with Scaling Laws and Approximate Entropy [104.48511402784763]
SRモデルの性能法則は,モデルの性能とデータ品質の関係を理論的に調査し,モデル化することを目的としている。
データ品質を評価するために、従来のデータ量メトリクスと比較して、より曖昧なアプローチを示すために、近似エントロピー(ApEn)を提案する。
論文 参考訳(メタデータ) (2024-11-30T10:56:30Z) - MoEfication: Conditional Computation of Transformer Models for Efficient
Inference [66.56994436947441]
トランスフォーマーベースの事前学習言語モデルは、パラメータ容量が大きいため、ほとんどのNLPタスクにおいて優れた性能を実現することができるが、計算コストも大きい。
スパースアクティベーション現象に基づく条件計算により,大規模モデル推論を高速化する。
そこで本研究では,モデルサイズが等しいMoE(Mix-of-experts)バージョン,すなわちMoEficationに変換することを提案する。
論文 参考訳(メタデータ) (2021-10-05T02:14:38Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z) - Transformer Hawkes Process [79.16290557505211]
本稿では,長期的依存関係を捕捉する自己認識機構を利用したTransformer Hawkes Process (THP) モデルを提案する。
THPは、有意なマージンによる可能性と事象予測の精度の両方の観点から、既存のモデルより優れている。
本稿では、THPが関係情報を組み込む際に、複数の点過程を学習する際の予測性能の改善を実現する具体例を示す。
論文 参考訳(メタデータ) (2020-02-21T13:48:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。