論文の概要: Can deep neural networks learn process model structure? An assessment
framework and analysis
- arxiv url: http://arxiv.org/abs/2202.11985v1
- Date: Thu, 24 Feb 2022 09:44:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-26 00:56:35.769964
- Title: Can deep neural networks learn process model structure? An assessment
framework and analysis
- Title(参考訳): ディープニューラルネットワークはプロセスモデル構造を学習できるか?
評価の枠組みと分析
- Authors: Jari Peeperkorn and Seppe vanden Broucke and Jochen De Weerdt
- Abstract要約: 本稿では,新しい適合度,精度,一般化の指標を補完する評価手法を提案する。
このフレームワークを単純な制御-フローの振る舞いを持つ複数のプロセスモデルに適用する。
以上の結果から, 単純化モデルにおいても, オーバーフィッティング対策の注意深い調整が必要であることが示唆された。
- 参考スコア(独自算出の注目度): 0.2580765958706854
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Predictive process monitoring concerns itself with the prediction of ongoing
cases in (business) processes. Prediction tasks typically focus on remaining
time, outcome, next event or full case suffix prediction. Various methods using
machine and deep learning havebeen proposed for these tasks in recent years.
Especially recurrent neural networks (RNNs) such as long short-term memory nets
(LSTMs) have gained in popularity. However, no research focuses on whether such
neural network-based models can truly learn the structure of underlying process
models. For instance, can such neural networks effectively learn parallel
behaviour or loops? Therefore, in this work, we propose an evaluation scheme
complemented with new fitness, precision, and generalisation metrics,
specifically tailored towards measuring the capacity of deep learning models to
learn process model structure. We apply this framework to several process
models with simple control-flow behaviour, on the task of next-event
prediction. Our results show that, even for such simplistic models, careful
tuning of overfitting countermeasures is required to allow these models to
learn process model structure.
- Abstract(参考訳): 予測プロセスの監視は、(ビジネス)プロセスにおける進行中のケースの予測に自身を悩ます。
予測タスクは通常、残り時間、結果、次のイベント、または完全なケースサフィックス予測に焦点を当てます。
近年,機械学習とディープラーニングを用いた様々な手法が提案されている。
特に、長期記憶ネット(LSTM)のようなリカレントニューラルネットワーク(RNN)の人気が高まっている。
しかし、そのようなニューラルネットワークベースのモデルが基盤となるプロセスモデルの構造を真に学習できるかどうかについての研究は行われていない。
例えば、そのようなニューラルネットワークは並列動作やループを効果的に学習できますか?
そこで本研究では,プロセスモデル構造を学習する深層学習モデルの能力の測定に特化して,新しい適合度,精度,一般化指標を補完する評価手法を提案する。
我々は,このフレームワークを制御-フローの単純な振る舞いを持つ複数のプロセスモデルに適用し,次のイベント予測のタスクに適用する。
以上の結果から, 単純なモデルであっても, プロセスモデル構造を学習するためには, オーバーフィッティング対策を慎重に調整する必要があることがわかった。
関連論文リスト
- Transferable Post-training via Inverse Value Learning [83.75002867411263]
別個のニューラルネットワーク(すなわち値ネットワーク)を用いた後学習におけるロジットレベルのモデリング変更を提案する。
このネットワークをデモを使って小さなベースモデルでトレーニングした後、推論中に他のトレーニング済みモデルとシームレスに統合することができる。
得られた値ネットワークは、パラメータサイズの異なる事前学習されたモデル間で広い転送性を有することを示す。
論文 参考訳(メタデータ) (2024-10-28T13:48:43Z) - Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - A Dynamical Model of Neural Scaling Laws [79.59705237659547]
ネットワークトレーニングと一般化の解決可能なモデルとして,勾配降下で訓練されたランダムな特徴モデルを分析する。
我々の理論は、データの繰り返し再利用により、トレーニングとテスト損失のギャップが徐々に増大することを示している。
論文 参考訳(メタデータ) (2024-02-02T01:41:38Z) - Understanding Activation Patterns in Artificial Neural Networks by
Exploring Stochastic Processes [0.0]
我々はこれまで未利用であったプロセスの枠組みを活用することを提案する。
我々は、実際のニューロンスパイク列車に使用される神経科学技術を活用した、アクティベーション周波数のみに焦点をあてる。
各ネットワークにおけるアクティベーションパターンを記述するパラメータを導出し、アーキテクチャとトレーニングセット間で一貫した差異を明らかにする。
論文 参考訳(メタデータ) (2023-08-01T22:12:30Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Can recurrent neural networks learn process model structure? [0.2580765958706854]
本稿では,適合度,精度,一般化のために,変分に基づく再サンプリングとカスタムメトリクスを組み合わせた評価フレームワークを提案する。
LSTMは、単純化されたプロセスデータであっても、プロセスモデル構造を学ぶのに苦労する可能性があることを確認します。
また,トレーニング中にLSTMで見られる情報量が減少すると,一般化や精度の低下が生じた。
論文 参考訳(メタデータ) (2022-12-13T08:40:01Z) - Masking Neural Networks Using Reachability Graphs to Predict Process
Events [0.0]
Decay Replay Miningは、プロセスモデル表記を使って次のイベントを予測するディープラーニング手法である。
本稿では,リプレイマイニングのプロセスモデルとニューラルネットワークを連動させて次の事象を予測する手法を提案する。
論文 参考訳(メタデータ) (2021-08-01T09:06:55Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Neural Complexity Measures [96.06344259626127]
本稿では,一般化を予測するメタラーニングフレームワークであるNeural Complexity(NC)を提案する。
我々のモデルは、データ駆動方式で、多くの異種タスクとの相互作用を通じてスカラー複雑性尺度を学習する。
論文 参考訳(メタデータ) (2020-08-07T02:12:10Z) - Learning Queuing Networks by Recurrent Neural Networks [0.0]
データから性能モデルを導出する機械学習手法を提案する。
我々は、通常の微分方程式のコンパクトな系の観点から、それらの平均力学の決定論的近似を利用する。
これにより、ニューラルネットワークの解釈可能な構造が可能になり、システム測定からトレーニングしてホワイトボックスパラメータ化モデルを生成することができる。
論文 参考訳(メタデータ) (2020-02-25T10:56:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。