論文の概要: Can machines solve general queueing systems?
- arxiv url: http://arxiv.org/abs/2202.01729v1
- Date: Thu, 3 Feb 2022 17:46:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-04 15:13:57.013041
- Title: Can machines solve general queueing systems?
- Title(参考訳): マシンは一般的なキューシステムを解くことができるか?
- Authors: Eliran Sherzer, Arik Senderovich, Opher Baron and Dmitry Krass
- Abstract要約: 一般的な待ち行列理論問題に機械学習モデルを適用するのはこれが初めてである。
我々は,M/G/1$キューの定常挙動を極めて正確に予測できることを示す。
- 参考スコア(独自算出の注目度): 1.0800983456810165
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we analyze how well a machine can solve a general problem in
queueing theory. To answer this question, we use a deep learning model to
predict the stationary queue-length distribution of an $M/G/1$ queue (Poisson
arrivals, general service times, one server). To the best of our knowledge,
this is the first time a machine learning model is applied to a general
queueing theory problem. We chose $M/G/1$ queue for this paper because it lies
"on the cusp" of the analytical frontier: on the one hand exact solution for
this model is available, which is both computationally and mathematically
complex. On the other hand, the problem (specifically the service time
distribution) is general. This allows us to compare the accuracy and efficiency
of the deep learning approach to the analytical solutions.
The two key challenges in applying machine learning to this problem are (1)
generating a diverse set of training examples that provide a good
representation of a "generic" positive-valued distribution, and (2)
representations of the continuous distribution of service times as an input. We
show how we overcome these challenges.
Our results show that our model is indeed able to predict the stationary
behavior of the $M/G/1$ queue extremely accurately: the average value of our
metric over the entire test set is $0.0009$. Moreover, our machine learning
model is very efficient, computing very accurate stationary distributions in a
fraction of a second (an approach based on simulation modeling would take much
longer to converge). We also present a case-study that mimics a real-life
setting and shows that our approach is more robust and provides more accurate
solutions compared to the existing methods. This shows the promise of extending
our approach beyond the analytically solvable systems (e.g., $G/G/1$ or
$G/G/c$).
- Abstract(参考訳): 本稿では,機械が待ち行列理論の一般的な問題をいかに解決できるかを分析する。
この質問に答えるために、我々は深層学習モデルを用いて、M/G/1$キュー(Poissonの到着、一般的なサービス時間、1サーバ)の待ち行列長分布を予測する。
私たちの知る限りでは、一般的な待ち行列理論問題に機械学習モデルを適用するのはこれが初めてです。
この論文では、解析的フロンティアの「カスプ」にあるため、M/G/1$キューを選択した:一方、このモデルの正確な解は、計算的かつ数学的に複雑である。
一方、問題(特にサービス時間分布)は一般的である。
これにより、ディープラーニングアプローチの精度と効率を分析解と比較することができる。
この問題に機械学習を適用する上での2つの重要な課題は、(1) "ジェネリック" 正値分布のよい表現を提供する多様なトレーニング例を生成し、(2)サービス時間の連続分布を入力として表現することである。
これらの課題を克服する方法を示します。
我々のモデルでは,M/G/1$キューの平均値が0.0009$である場合,M/G/1$キューの定常挙動を極めて正確に予測できることがわかった。
さらに、我々の機械学習モデルは、非常に効率的で、非常に正確な定常分布を1秒で計算する(シミュレーションモデリングに基づくアプローチでは、収束するのにはるかに時間がかかる)。
また,実生活環境を模倣したケーススタディを提案し,提案手法が従来の手法よりも堅牢で,より正確なソリューションを提供することを示す。
これは我々のアプローチを解析的に解決可能なシステム(例えば$G/G/1$または$G/G/c$)を超えて拡張するという約束を示している。
関連論文リスト
- Agnostically Learning Multi-index Models with Queries [54.290489524576756]
本稿では,ガウス分布下での非依存学習の課題に対するクエリアクセスのパワーについて検討する。
クエリアクセスは、MIMを不可知的に学習するためのランダムな例よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2023-12-27T15:50:47Z) - When, Why and How Much? Adaptive Learning Rate Scheduling by Refinement [51.12097770185634]
実際に使用される学習率のスケジュールは、理論によって推奨されるものとはほとんど似ていない。
我々はこの理論と実践的ギャップの多くを閉じ、その結果、新しい問題適応型学習率スケジュールを導き出すことができる。
論文 参考訳(メタデータ) (2023-10-11T19:16:35Z) - Learning Distributions via Monte-Carlo Marginalization [9.131712404284876]
サンプルから抽出可能な分布を学習する新しい手法を提案する。
モンテカルロ・マルギナライゼーション(MCMarg)はこの問題に対処するために提案されている。
提案手法は複雑な分布を学習するための強力なツールであり、プロセス全体が微分可能である。
論文 参考訳(メタデータ) (2023-08-11T19:08:06Z) - Sparse Gaussian Graphical Models with Discrete Optimization:
Computational and Statistical Perspectives [8.403841349300103]
本研究では,無向ガウス図形モデルに基づくスパースグラフの学習問題を考察する。
擬似微分関数の $ell_0$-penalized バージョンに基づく新しい推定器 GraphL0BnB を提案する。
実/合成データセットに関する数値実験により,本手法がほぼ最適に,p = 104$の問題を解けることが示唆された。
論文 参考訳(メタデータ) (2023-07-18T15:49:02Z) - Stochastic Approximation Approaches to Group Distributionally Robust
Optimization [96.26317627118912]
群分散ロバスト最適化(GDRO)
オンライン学習技術は、各ラウンドに必要なサンプル数をm$から1$に減らし、同じサンプルを保持する。
分布依存収束率を導出できる重み付きGDROの新規な定式化。
論文 参考訳(メタデータ) (2023-02-18T09:24:15Z) - Generalized Differentiable RANSAC [95.95627475224231]
$nabla$-RANSACは、ランダム化された堅牢な推定パイプライン全体を学ぶことができる、微分可能なRANSACである。
$nabla$-RANSACは、精度という点では最先端のシステムよりも優れているが、精度は低い。
論文 参考訳(メタデータ) (2022-12-26T15:13:13Z) - On the Sample Complexity of Representation Learning in Multi-task
Bandits with Global and Local structure [77.60508571062958]
マルチタスク・バンディット問題に対する最適アーム学習の複雑さについて検討した。
アームは2つのコンポーネントで構成されます。1つはタスク間で共有され(表現と呼ばれます)、もう1つはタスク固有のもの(予測器と呼ばれます)です。
サンプルの複雑さが下界に近づき、最大で$H(Glog(delta_G)+ Xlog(delta_H))$でスケールするアルゴリズムOSRL-SCを考案する。
論文 参考訳(メタデータ) (2022-11-28T08:40:12Z) - uGLAD: Sparse graph recovery by optimizing deep unrolled networks [11.48281545083889]
深層ネットワークを最適化してスパースグラフ復元を行う新しい手法を提案する。
我々のモデルであるuGLADは、最先端モデルGLADを教師なし設定に構築し、拡張します。
我々は, 遺伝子調節ネットワークから生成した合成ガウスデータ, 非ガウスデータを用いて, モデル解析を行い, 嫌気性消化の事例研究を行った。
論文 参考訳(メタデータ) (2022-05-23T20:20:27Z) - An Improved Analysis of Gradient Tracking for Decentralized Machine
Learning [34.144764431505486]
トレーニングデータが$n$エージェントに分散されるネットワーク上での分散機械学習を検討する。
エージェントの共通の目標は、すべての局所損失関数の平均を最小化するモデルを見つけることである。
ノイズのない場合、$p$を$mathcalO(p-1)$から$mathcalO(p-1)$に改善します。
論文 参考訳(メタデータ) (2022-02-08T12:58:14Z) - Estimating Stochastic Linear Combination of Non-linear Regressions
Efficiently and Scalably [23.372021234032363]
サブサンプルサイズが大きくなると、推定誤差が過度に犠牲になることを示す。
私たちの知る限りでは、線形テキスト+確率モデルが保証される最初の研究です。
論文 参考訳(メタデータ) (2020-10-19T07:15:38Z) - Improving Robustness and Generality of NLP Models Using Disentangled
Representations [62.08794500431367]
スーパービジョンニューラルネットワークはまず入力$x$を単一の表現$z$にマップし、次に出力ラベル$y$にマッピングする。
本研究では,非交叉表現学習の観点から,NLPモデルの堅牢性と汎用性を改善する手法を提案する。
提案した基準でトレーニングしたモデルは、広範囲の教師付き学習タスクにおいて、より堅牢性とドメイン適応性を向上することを示す。
論文 参考訳(メタデータ) (2020-09-21T02:48:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。