論文の概要: Multi-Objective Adaptive Rate Limiting in Microservices Using Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2511.03279v1
- Date: Wed, 05 Nov 2025 08:22:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-06 18:19:32.384849
- Title: Multi-Objective Adaptive Rate Limiting in Microservices Using Deep Reinforcement Learning
- Title(参考訳): 深層強化学習を用いたマイクロサービスにおける多目的適応型レート制限
- Authors: Ning Lyu, Yuxi Wang, Ziyu Cheng, Qingyuan Zhang, Feng Chen,
- Abstract要約: APIレート制限は、システムの安定性とサービス品質を保証する重要なメカニズムとして現れています。
トークンバケットやスライディングウィンドウといった従来のレート制限アルゴリズムは、動的トラフィックパターンやさまざまなシステム負荷に適応するのに苦労する。
本稿では,システムスループットとサービスレイテンシを動的にバランスする深層強化学習に基づく適応率制限戦略を提案する。
- 参考スコア(独自算出の注目度): 10.766410192517164
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As cloud computing and microservice architectures become increasingly prevalent, API rate limiting has emerged as a critical mechanism for ensuring system stability and service quality. Traditional rate limiting algorithms, such as token bucket and sliding window, while widely adopted, struggle to adapt to dynamic traffic patterns and varying system loads. This paper proposes an adaptive rate limiting strategy based on deep reinforcement learning that dynamically balances system throughput and service latency. We design a hybrid architecture combining Deep Q-Network (DQN) and Asynchronous Advantage Actor-Critic (A3C) algorithms, modeling the rate limiting decision process as a Markov Decision Process. The system continuously monitors microservice states and learns optimal rate limiting policies through environmental interaction. Extensive experiments conducted in a Kubernetes cluster environment demonstrate that our approach achieves 23.7% throughput improvement and 31.4% P99 latency reduction compared to traditional fixed-threshold strategies under high-load scenarios. Results from a 90-day production deployment handling 500 million daily requests validate the practical effectiveness of the proposed method, with 82% reduction in service degradation incidents and 68% decrease in manual interventions.
- Abstract(参考訳): クラウドコンピューティングとマイクロサービスアーキテクチャがますます普及するにつれて、システムの安定性とサービス品質を保証するための重要なメカニズムとして、APIレート制限が生まれています。
トークンバケットやスライディングウィンドウといった従来のレート制限アルゴリズムは広く採用されているが、動的なトラフィックパターンやさまざまなシステム負荷に適応するのに苦労している。
本稿では,システムスループットとサービスレイテンシを動的にバランスする深層強化学習に基づく適応率制限戦略を提案する。
我々は,Deep Q-Network (DQN) と Asynchronous Advantage Actor-Critic (A3C) アルゴリズムを組み合わせたハイブリッドアーキテクチャを設計し,マルコフ決定プロセスとしてレート制限決定プロセスをモデル化する。
このシステムは、マイクロサービス状態を継続的に監視し、環境相互作用を通じて最適なレート制限ポリシーを学ぶ。
Kubernetesクラスタ環境で実施された大規模な実験では、当社のアプローチが23.7%のスループット向上と31.4%のP99レイテンシ削減を実現している。
毎日5億件の要求を処理した90日間の運用配置の結果,提案手法の有効性が検証され,サービス劣化インシデントが82%,手作業による介入が68%減少した。
関連論文リスト
- CSGO: Generalized Optimization for Cold Start in Wireless Collaborative Edge LLM Systems [62.24576366776727]
本稿では,全体の推論遅延を最小限に抑えるために,遅延を考慮したスケジューリングフレームワークを提案する。
提案手法は,ベースライン戦略と比較して,コールドスタート遅延を著しく低減することを示す。
論文 参考訳(メタデータ) (2025-08-15T07:49:22Z) - Scalability Optimization in Cloud-Based AI Inference Services: Strategies for Real-Time Load Balancing and Automated Scaling [1.3689475854650441]
本研究では,クラウドAI推論サービスのための拡張性最適化フレームワークを提案する。
提案モデルは,適応負荷分布に対する強化学習と,正確な需要予測のためのディープニューラルネットワークを組み合わせたハイブリッドアプローチである。
実験の結果,提案モデルでは負荷分散効率を35倍に向上し,応答遅延を28。
論文 参考訳(メタデータ) (2025-04-16T04:00:04Z) - Benchmarking Dynamic SLO Compliance in Distributed Computing Continuum Systems [9.820223170841219]
大規模アーキテクチャにおけるサービスレベルオブジェクト(SLO)は、その異種性やさまざまなサービス要件のために困難である。
神経科学の新しい手法であるActive Inferenceのベンチマークを、3つの確立された強化学習アルゴリズムに対して提示する。
アクティブ推論はDCCSにおけるSLOコンプライアンスを保証するための有望なアプローチであり、低メモリ使用率、安定したCPU利用、高速収束を提供する。
論文 参考訳(メタデータ) (2025-03-05T08:56:26Z) - SPEQ: Offline Stabilization Phases for Efficient Q-Learning in High Update-To-Data Ratio Reinforcement Learning [51.10866035483686]
強化学習(RL)における高アップデート・トゥ・データ(UTD)比のアルゴリズムは、サンプル効率を改善するが、高い計算コストを伴い、現実世界のスケーラビリティを制限している。
我々は、低UTDオンライントレーニングと周期的オフライン安定化フェーズを組み合わせたRLアルゴリズムである、効率的なQ-Learningのためのオフライン安定化フェーズ(SPEQ)を提案する。
これらのフェーズでは、Q-関数は固定されたリプレイバッファ上で高いUTD比で微調整され、サブ最適データの冗長な更新が削減される。
論文 参考訳(メタデータ) (2025-01-15T09:04:19Z) - Differentiable Discrete Event Simulation for Queuing Network Control [7.965453961211742]
キューのネットワーク制御は、高い性、大きな状態とアクション空間、安定性の欠如など、異なる課題を生んでいる。
本稿では,異なる離散イベントシミュレーションに基づくポリシー最適化のためのスケーラブルなフレームワークを提案する。
本手法は,非定常環境で動作するシステムなど,現実的なシナリオを柔軟に処理することができる。
論文 参考訳(メタデータ) (2024-09-05T17:53:54Z) - Neural Horizon Model Predictive Control -- Increasing Computational Efficiency with Neural Networks [0.0]
予測制御をモデル化するための機械学習支援手法を提案する。
安全保証を維持しつつ,問題地平線の一部を近似することを提案する。
提案手法は,迅速な制御応答を必要とするアプリケーションを含む,幅広いアプリケーションに適用可能である。
論文 参考訳(メタデータ) (2024-08-19T08:13:37Z) - FedCAda: Adaptive Client-Side Optimization for Accelerated and Stable Federated Learning [57.38427653043984]
フェデレートラーニング(FL)は、分散クライアント間の機械学習モデルの協調トレーニングにおいて、顕著なアプローチとして登場した。
我々は,この課題に対処するために設計された,革新的なクライアント適応アルゴリズムであるFedCAdaを紹介する。
我々はFedCAdaが適応性、収束性、安定性、全体的な性能の点で最先端の手法より優れていることを実証する。
論文 参考訳(メタデータ) (2024-05-20T06:12:33Z) - Networked Online Learning for Control of Safety-Critical
Resource-Constrained Systems based on Gaussian Processes [9.544146562919792]
本稿では,ガウス過程の回帰に基づく新しいネットワーク型オンライン学習手法を提案する。
本稿では,送信チャネルの帯域制限と時間遅延を考慮した,ローカルシステムとクラウド間の効率的なデータ伝送方式を提案する。
論文 参考訳(メタデータ) (2022-02-23T13:12:12Z) - Distributed Reinforcement Learning for Privacy-Preserving Dynamic Edge
Caching [91.50631418179331]
MECネットワークにおけるデバイスのキャッシュヒット率を最大化するために,プライバシ保護型分散ディープポリシー勾配(P2D3PG)を提案する。
分散最適化をモデルフリーなマルコフ決定プロセス問題に変換し、人気予測のためのプライバシー保護フェデレーション学習手法を導入する。
論文 参考訳(メタデータ) (2021-10-20T02:48:27Z) - Tailored Learning-Based Scheduling for Kubernetes-Oriented Edge-Cloud
System [54.588242387136376]
エッジクラウドシステムのための学習ベースのスケジューリングフレームワークkaisを紹介する。
まず,分散した要求ディスパッチに対応するために,協調型マルチエージェントアクタ-クリティックアルゴリズムを設計する。
次に,多種多様なシステムスケールと構造について,グラフニューラルネットワークを用いてシステム状態情報を埋め込む。
第3に、リクエストディスパッチとサービスオーケストレーションを調和させる2段階のスケジューリングメカニズムを採用します。
論文 参考訳(メタデータ) (2021-01-17T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。