論文の概要: Analyzing homogenous and heterogeneous multi-server queues via neural networks
- arxiv url: http://arxiv.org/abs/2504.01052v1
- Date: Tue, 01 Apr 2025 12:30:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-04 19:36:04.157718
- Title: Analyzing homogenous and heterogeneous multi-server queues via neural networks
- Title(参考訳): ニューラルネットワークによる同種および異種マルチサーバキューの解析
- Authors: Eliran Sherzer,
- Abstract要約: 我々は,シングルステイトンマルチサーバシステムにおいて,顧客数の定常分布を予測するために,機械学習アプローチを用いる。
システム内の顧客数の定常分布を、$GI/GI_i/2$キューで予測するのは私たちだけです。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: In this paper, we use a machine learning approach to predict the stationary distributions of the number of customers in a single-staiton multi server system. We consider two systems, the first is $c$ homogeneous servers, namely the $GI/GI/c$ queue. The second is a two-heterogeneous server system, namely the $GI/GI_i/2$ queue. We train a neural network for these queueing models, using the first four inter-arrival and service time moments. We demonstrate empirically that using the fifth moment and beyond does not increase accuracy. Compared to existing methods, we show that in terms of the stationary distribution and the mean value of the number of customers in a $GI/GI/c$ queue, we are state-of-the-art. Further, we are the only ones to predict the stationary distribution of the number of customers in the system in a $GI/GI_i/2$ queue. We conduct a thorough performance evaluation to assert that our model is accurate. In most cases, we demonstrate that our error is less than 5\%. Finally, we show that making inferences is very fast, where 5000 inferences can be made in parallel within a fraction of a second.
- Abstract(参考訳): 本論文では,シングルステイトンマルチサーバシステムにおけるユーザ数の定常分布を予測するために,機械学習手法を用いる。
まず、$c$均質なサーバ、すなわち$GI/GI/c$キューを考える。
2つ目は2つの異種サーバシステム、すなわち$GI/GI_i/2$ queueである。
これらのキューモデルのニューラルネットワークを、最初の4つのノード間およびサービス時間モーメントを使ってトレーニングします。
5回目以降の使用で精度が向上しないことを実証的に示す。
既存手法と比較して,$GI/GI/c$キューにおける顧客数の定常分布と平均値に関して,我々は最先端であることを示す。
さらに、システム内の顧客数の定常分布を$GI/GI_i/2$キューで予測するのは私たちだけである。
モデルが正確であることを主張するために、徹底的なパフォーマンス評価を行います。
ほとんどの場合、エラーが5\%未満であることを示す。
最後に,5000個の推論を1秒以内で並列に行うことができる場合,推論は非常に高速であることを示す。
関連論文リスト
- Queueing Matching Bandits with Preference Feedback [10.988222071035198]
我々は、一方のN$キューと他方のK$サーバからなるマルチクラス非対称キューシステムについて検討する。
各ジョブサーバ割り当てのサービスレートは未知であり、機能ベースのMNL(Multi-nomial Logit)関数によってモデル化される。
我々は,UCBとトンプソンサンプリングに基づくアルゴリズムを提案する。このアルゴリズムは,待ち時間の平均値が$O(minN,K/epsilon)$に制限されたシステム安定性を実現する。
論文 参考訳(メタデータ) (2024-10-14T02:29:06Z) - Federated Combinatorial Multi-Agent Multi-Armed Bandits [79.1700188160944]
本稿では,Banditを用いたオンライン最適化に適したフェデレーション学習フレームワークを提案する。
この設定では、エージェントのアームサブセットは、個々のアーム情報にアクセスせずにこれらのサブセットに対するノイズの多い報酬を観察し、特定の間隔で協力して情報を共有することができる。
論文 参考訳(メタデータ) (2024-05-09T17:40:09Z) - Scale-Robust Timely Asynchronous Decentralized Learning [35.16231062731263]
本稿では,機械学習モデルを学習しようとする接続デバイスネットワークで構成される非同期分散学習システムについて考察する。
本研究では,個々のユーザモデルを収束させるのに十分な条件である,そのようなシステムの安定性基準について検討する。
ネットワークスケーリングでは、例えば、ユーザデバイス数$n$が非常に大きい場合、個々のユーザのゴシップ容量が$Omega(log n)$にスケールした場合、有限時間でユーザモデルの収束を保証することができる。
論文 参考訳(メタデータ) (2024-04-30T17:54:16Z) - DASA: Delay-Adaptive Multi-Agent Stochastic Approximation [64.32538247395627]
我々は,N$エージェントが並列に動作し,中央サーバと通信することで,一般的な近似問題を高速化することを目的とした設定を考える。
遅延とストラグラーの効果を軽減するために,マルチエージェント近似のための遅延適応アルゴリズムである textttDASA を提案する。
論文 参考訳(メタデータ) (2024-03-25T22:49:56Z) - Learning-Based Pricing and Matching for Two-Sided Queues [14.854050478428727]
複数のタイプの顧客とサーバを持つ動的システムについて検討する。
各キューの到着率は、未知の需要または供給機能に応じて価格によって決定される。
このシステムは、乗客やドライバーとの乗り合い市場のような、両側の市場をモデル化するのに使用することができる。
論文 参考訳(メタデータ) (2024-03-17T05:07:04Z) - Timely Asynchronous Hierarchical Federated Learning: Age of Convergence [59.96266198512243]
クライアント-エッジ-クラウドフレームワークを用いた非同期階層型フェデレーション学習環境について検討する。
クライアントはトレーニングされたパラメータをエッジサーバと交換し、ローカルに集約されたモデルを更新する。
各クライアントの目標は、クライアントのタイムラインを維持しながら、グローバルモデルに収束することだ。
論文 参考訳(メタデータ) (2023-06-21T17:39:16Z) - Learning While Scheduling in Multi-Server Systems with Unknown
Statistics: MaxWeight with Discounted UCB [18.898514227870926]
本稿では、複数のサーバと複数のタイプのジョブを持つマルチサーバシステムについて考察する。
目標は、処理時間の統計を知ることなく、サーバ上のジョブをスケジュールすることだ。
我々は,MaxWeightスケジューリングポリシと割引された高信頼度境界(UCB)を組み合わせることで,統計を同時に学習し,ジョブをサーバにスケジュールするアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-09-02T15:37:02Z) - Can machines solve general queueing systems? [1.0800983456810165]
一般的な待ち行列理論問題に機械学習モデルを適用するのはこれが初めてである。
我々は,M/G/1$キューの定常挙動を極めて正確に予測できることを示す。
論文 参考訳(メタデータ) (2022-02-03T17:46:24Z) - An Expectation-Maximization Perspective on Federated Learning [75.67515842938299]
フェデレーション学習は、データをデバイス上でプライベートにしながら、複数のクライアントにわたるモデルの分散トレーニングを記述する。
本稿では,サーバがクライアント固有のモデルパラメータに対して事前分布のパラメータを提供する階層的潜在変数モデルとして,サーバが設定したフェデレーション学習プロセスについて考察する。
我々は,単純なガウス先行とよく知られた期待最大化(EM)アルゴリズムのハードバージョンを用いて,そのようなモデルの学習は,フェデレーション学習環境における最も一般的なアルゴリズムであるFedAvgに対応することを示す。
論文 参考訳(メタデータ) (2021-11-19T12:58:59Z) - Accelerating Training and Inference of Graph Neural Networks with Fast
Sampling and Pipelining [58.10436813430554]
グラフニューラルネットワーク(GNN)のミニバッチトレーニングには、多くの計算とデータ移動が必要である。
我々は,分散マルチGPU環境において,近傍サンプリングを用いたミニバッチトレーニングを行うことを支持する。
本稿では,これらのボトルネックを緩和する一連の改良点について述べる。
また,サンプリングによる推論を支援する実験分析を行い,試験精度が実質的に損なわれていないことを示す。
論文 参考訳(メタデータ) (2021-10-16T02:41:35Z) - The Right Tool for the Job: Matching Model and Instance Complexities [62.95183777679024]
NLPモデルが大きくなればなるほど、訓練されたモデルを実行するには、金銭的・環境的なコストを発生させる重要な計算資源が必要である。
我々は、推論中、早期(かつ高速)の"exit"を可能にする文脈表現微調整の修正を提案する。
3つのテキスト分類データセットと2つの自然言語推論ベンチマークの2つのタスクで、5つの異なるデータセットに対して提案した修正を検証した。
論文 参考訳(メタデータ) (2020-04-16T04:28:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。