論文の概要: Approximating G(t)/GI/1 queues with deep learning
- arxiv url: http://arxiv.org/abs/2407.08765v1
- Date: Thu, 11 Jul 2024 05:25:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-16 03:38:34.261816
- Title: Approximating G(t)/GI/1 queues with deep learning
- Title(参考訳): ディープラーニングによるG(t)/GI/1キューの近似
- Authors: Eliran Sherzer, Opher Baron, Dmitry Krass, Yehezkel Resheff,
- Abstract要約: 待ち行列理論の問題を解くために教師付き機械学習手法を適用する。
G(t)/GI/1 の系における数の過渡分布を推定する。
我々はこれらの分布を高速かつ正確に予測するニューラルネットワーク機構を開発する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we apply a supervised machine-learning approach to solve a fundamental problem in queueing theory: estimating the transient distribution of the number in the system for a G(t)/GI/1. We develop a neural network mechanism that provides a fast and accurate predictor of these distributions for moderate horizon lengths and practical settings. It is based on using a Recurrent Neural Network (RNN) architecture based on the first several moments of the time-dependant inter-arrival and the stationary service time distributions; we call it the Moment-Based Recurrent Neural Network (RNN) method (MBRNN ). Our empirical study suggests MBRNN requires only the first four inter-arrival and service time moments. We use simulation to generate a substantial training dataset and present a thorough performance evaluation to examine the accuracy of our method using two different test sets. We show that even under the configuration with the worst performance errors, the mean number of customers over the entire timeline has an error of less than 3%. While simulation modeling can achieve high accuracy, the advantage of the MBRNN over simulation is runtime, while the MBRNN analyzes hundreds of systems within a fraction of a second. This paper focuses on a G(t)/GI/1; however, the MBRNN approach demonstrated here can be extended to other queueing systems, as the training data labeling is based on simulations (which can be applied to more complex systems) and the training is based on deep learning, which can capture very complex time sequence tasks. In summary, the MBRNN can potentially revolutionize our ability to perform transient analyses of queueing systems.
- Abstract(参考訳): 本稿では,G(t)/GI/1系における数値の過渡分布を推定する待ち行列理論の基本的な問題を解決するために,教師付き機械学習手法を適用する。
我々は,これらの分布を適度な地平線長と実用的な設定のために高速かつ正確に予測するニューラルネットワーク機構を開発した。
時間依存性と定常サービス時間分布の最初の数モーメントをベースとしたリカレントニューラルネットワーク(RNN)アーキテクチャ(MBRNN)を用いており、これをモーメントベースリカレントニューラルネットワーク(RNN)と呼ぶ。
私たちの経験的調査は、MBRNNは、最初の4つの到着時間とサービス時間しか必要としていないことを示唆しています。
そこで本研究では,シミュレーションを用いて実際のトレーニングデータセットを生成し,提案手法の精度を2つの異なるテストセットを用いて詳細に評価する。
最悪のパフォーマンスエラーのある設定下であっても、タイムライン全体の平均顧客数は3%未満であることを示す。
シミュレーションモデリングは精度が高いが、シミュレーションよりもMBRNNの利点は実行時であり、MBRNNはほんの数秒で数百のシステムを解析する。
本稿では、G(t)/GI/1に焦点を当てるが、トレーニングデータラベリングはシミュレーションに基づいており(より複雑なシステムに適用できる)、トレーニングはディープラーニングに基づいており、非常に複雑な時系列タスクをキャプチャすることができる。
まとめると、MBRNNは待ち行列システムの過渡解析を行う能力に革命をもたらす可能性がある。
関連論文リスト
- Time Elastic Neural Networks [2.1756081703276]
時間弾性ニューラルネットワーク(teNN)という,非定型ニューラルネットワークアーキテクチャの導入と詳細化について述べる。
古典的ニューラルネットワークアーキテクチャと比較して新しいのは、時間ゆがみ能力を明確に組み込んでいることだ。
トレーニング過程において,TENNは各細胞に必要となるニューロン数を減少させることに成功した。
論文 参考訳(メタデータ) (2024-05-27T09:01:30Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Pretraining Graph Neural Networks for few-shot Analog Circuit Modeling
and Design [68.1682448368636]
本稿では、新しい未知のトポロジや未知の予測タスクに適応可能な回路表現を学習するための教師付き事前学習手法を提案する。
異なる回路の変動位相構造に対処するため、各回路をグラフとして記述し、グラフニューラルネットワーク(GNN)を用いてノード埋め込みを学習する。
出力ノード電圧の予測における事前学習GNNは、新しい未知のトポロジや新しい回路レベル特性の予測に適応可能な学習表現を促進することができることを示す。
論文 参考訳(メタデータ) (2022-03-29T21:18:47Z) - Mitigating Performance Saturation in Neural Marked Point Processes:
Architectures and Loss Functions [50.674773358075015]
本稿では,グラフ畳み込み層のみを利用するGCHPという単純なグラフベースのネットワーク構造を提案する。
我々は,GCHPがトレーニング時間を大幅に短縮し,時間間確率仮定による確率比損失がモデル性能を大幅に改善できることを示した。
論文 参考訳(メタデータ) (2021-07-07T16:59:14Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - A Meta-Learning Approach to the Optimal Power Flow Problem Under
Topology Reconfigurations [69.73803123972297]
メタラーニング(MTL)アプローチを用いて訓練されたDNNベースのOPF予測器を提案する。
開発したOPF予測器はベンチマークIEEEバスシステムを用いてシミュレーションにより検証される。
論文 参考訳(メタデータ) (2020-12-21T17:39:51Z) - Effect of Architectures and Training Methods on the Performance of
Learned Video Frame Prediction [10.404162481860634]
実験結果から,残差FCNNアーキテクチャは高いトレーニングとテスト(推論)計算の複雑さを犠牲にして,ピーク信号対雑音比(PSNR)の点で最善であることがわかった。
CRNNは、時間的手続きを通じて、ステートフルなトランケートされたバックプロパゲーションを使用して、安定かつ非常に効率的に訓練することができる。
論文 参考訳(メタデータ) (2020-08-13T20:45:28Z) - Graph Neural Networks for Leveraging Industrial Equipment Structure: An
application to Remaining Useful Life Estimation [21.297461316329453]
本稿では,複雑な機器の構造をグラフ形式で把握し,マルチセンサ時系列データをモデル化するためにグラフニューラルネットワーク(GNN)を用いる。
我々は,提案したGNNに基づくRUL推定モデルが,RNNやCNNをベースとした文学からの強いベースラインと好意的に比較した。
論文 参考訳(メタデータ) (2020-06-30T06:38:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。