論文の概要: Process Outcome Prediction: CNN vs. LSTM (with Attention)
- arxiv url: http://arxiv.org/abs/2104.06934v1
- Date: Wed, 14 Apr 2021 15:38:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-15 13:11:05.599703
- Title: Process Outcome Prediction: CNN vs. LSTM (with Attention)
- Title(参考訳): プロセスアウトカム予測 - CNN vs. LSTM (注意)
- Authors: Hans Weytjens and Jochen De Weerdt
- Abstract要約: 時系列問題に対する畳み込みニューラルネットワーク(CNN)とLong Short-Term Memory(LSTM)の性能について検討する。
その結果,これらのニューラルネットワークは高い予測能力に満足できることがわかった。
CNNのスピード、早期予測力、堅牢性は、プロセス結果予測への適用の道を開くべきだと主張しています。
- 参考スコア(独自算出の注目度): 0.15229257192293202
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The early outcome prediction of ongoing or completed processes confers
competitive advantage to organizations. The performance of classic machine
learning and, more recently, deep learning techniques such as Long Short-Term
Memory (LSTM) on this type of classification problem has been thorougly
investigated. Recently, much research focused on applying Convolutional Neural
Networks (CNN) to time series problems including classification, however not
yet to outcome prediction. The purpose of this paper is to close this gap and
compare CNNs to LSTMs. Attention is another technique that, in combination with
LSTMs, has found application in time series classification and was included in
our research. Our findings show that all these neural networks achieve
satisfactory to high predictive power provided sufficiently large datasets.
CNNs perfom on par with LSTMs; the Attention mechanism adds no value to the
latter. Since CNNs run one order of magnitude faster than both types of LSTM,
their use is preferable. All models are robust with respect to their
hyperparameters and achieve their maximal predictive power early on in the
cases, usually after only a few events, making them highly suitable for runtime
predictions. We argue that CNNs' speed, early predictive power and robustness
should pave the way for their application in process outcome prediction.
- Abstract(参考訳): 進行中または完了プロセスの早期の結果予測は、組織に競争上の優位性を与えます。
従来の機械学習と最近では,このような分類問題に対するLong Short-Term Memory (LSTM) などのディープラーニング技術の性能について検討している。
近年,畳み込みニューラルネットワーク(cnn)を分類を含む時系列問題に適用する研究が数多く行われているが,結果予測には至っていない。
本論文の目的は,このギャップを埋め,CNNとLSTMを比較することである。
LSTMと組み合わせて時系列分類に応用し,本研究に取り入れた別の手法である。
その結果,これらのニューラルネットワークは十分に大きなデータセットを提供する高い予測能力に満足できることがわかった。
CNNはLSTMと同等であり、Attentionメカニズムは後者に値を加えない。
CNNは両タイプのLSTMより1桁速く動作するため、その使用が好ましい。
すべてのモデルはハイパーパラメータに対して堅牢であり、その場合、通常はほんの数回のイベント後に、その最大予測能力を達成するため、実行時予測に非常に適している。
我々は、CNNの速度、早期予測能力、堅牢性は、プロセス結果予測における彼らの応用の道を開くべきだと論じる。
関連論文リスト
- Time Elastic Neural Networks [2.1756081703276]
時間弾性ニューラルネットワーク(teNN)という,非定型ニューラルネットワークアーキテクチャの導入と詳細化について述べる。
古典的ニューラルネットワークアーキテクチャと比較して新しいのは、時間ゆがみ能力を明確に組み込んでいることだ。
トレーニング過程において,TENNは各細胞に必要となるニューロン数を減少させることに成功した。
論文 参考訳(メタデータ) (2024-05-27T09:01:30Z) - SwinLSTM:Improving Spatiotemporal Prediction Accuracy using Swin
Transformer and LSTM [10.104358712577215]
本研究では,SwinブロックとLSTMを統合した新たなリカレントセルConvwinLSTMを提案する。
我々の競争実験の結果は、Swinwinの依存関係を捕捉するモデルにおいて、グローバルな空間依存の学習がより有利であることを示している。
論文 参考訳(メタデータ) (2023-08-19T03:08:28Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - Boosted Dynamic Neural Networks [53.559833501288146]
典型的なEDNNは、ネットワークバックボーンの異なる層に複数の予測ヘッドを持つ。
モデルを最適化するために、これらの予測ヘッドとネットワークバックボーンは、トレーニングデータのバッチ毎にトレーニングされる。
トレーニングと2つのフェーズでのインプットの異なるテストは、トレーニングとデータ分散のテストのミスマッチを引き起こす。
EDNNを勾配強化にインスパイアされた付加モデルとして定式化し、モデルを効果的に最適化するための複数のトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-11-30T04:23:12Z) - Evaluation of deep learning models for multi-step ahead time series
prediction [1.3764085113103222]
本研究では,マルチステップ先行時系列予測のための深層学習モデルの性能を比較検討する。
当社のディープラーニングメソッドは、単純なリカレントニューラルネットワーク、長期メモリ(LSTM)ネットワーク、双方向LSTM、エンコーダデコーダLSTMネットワーク、および畳み込みニューラルネットワークを妥協します。
論文 参考訳(メタデータ) (2021-03-26T04:07:11Z) - A Meta-Learning Approach to the Optimal Power Flow Problem Under
Topology Reconfigurations [69.73803123972297]
メタラーニング(MTL)アプローチを用いて訓練されたDNNベースのOPF予測器を提案する。
開発したOPF予測器はベンチマークIEEEバスシステムを用いてシミュレーションにより検証される。
論文 参考訳(メタデータ) (2020-12-21T17:39:51Z) - Automatic Remaining Useful Life Estimation Framework with Embedded
Convolutional LSTM as the Backbone [5.927250637620123]
組込み畳み込みLSTM(E NeuralTM)と呼ばれる新しいLSTM変種を提案する。
ETMでは、異なる1次元の畳み込みの群がLSTM構造に埋め込まれている。
RUL推定のために広く用いられているいくつかのベンチマークデータセットに対する最先端のアプローチよりも,提案したEMMアプローチの方が優れていることを示す。
論文 参考訳(メタデータ) (2020-08-10T08:34:20Z) - Continual Learning in Recurrent Neural Networks [67.05499844830231]
リカレントニューラルネットワーク(RNN)を用いた逐次データ処理における連続学習手法の有効性を評価する。
RNNに弾性重み強化などの重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重
そこで本研究では,重み付け手法の性能が処理シーケンスの長さに直接的な影響を受けず,むしろ高動作メモリ要求の影響を受けていることを示す。
論文 参考訳(メタデータ) (2020-06-22T10:05:12Z) - Tensor train decompositions on recurrent networks [60.334946204107446]
マトリックス製品状態(MPS)テンソルトレインは、ストレージの削減と推論時の計算時間の観点から、MPOよりも魅力的な特徴を持つ。
理論解析により,MPSテンソル列車はLSTMネットワーク圧縮の最前線に置かれるべきであることを示す。
論文 参考訳(メタデータ) (2020-06-09T18:25:39Z) - COVID-19 growth prediction using multivariate long short term memory [2.588973722689844]
長期記憶(LSTM)法を用いて、時間とともに新型コロナウイルスの増殖の相関を学習する。
まず、世界中から確認された症例を含むトレーニングデータをトレーニングした。
リカレントニューラルネットワーク(RNN)法と同等の低い検証誤差で比較して,良好な性能を示した。
論文 参考訳(メタデータ) (2020-05-10T23:21:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。