論文の概要: An SLO Driven and Cost-Aware Autoscaling Framework for Kubernetes
- arxiv url: http://arxiv.org/abs/2512.23415v1
- Date: Mon, 29 Dec 2025 12:20:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.490794
- Title: An SLO Driven and Cost-Aware Autoscaling Framework for Kubernetes
- Title(参考訳): KubernetesのためのSLO駆動でコストを意識した自動スケーリングフレームワーク
- Authors: Vinoth Punniyamoorthy, Bikesh Kumar, Sumit Saha, Lokesh Butra, Mayilsamy Palanigounder, Akash Kumar Agarwal, Kabilan Kannan,
- Abstract要約: 本稿では、AIOps原則を用いて自動スケーリングをどのように拡張し、サービスレベルオブジェクト違反とコスト制約を共同で満たすかを検討する。
本稿では,SLO認識とコスト意識制御と軽量需要予測を統合した安全かつ説明可能な多信号自動スケーリングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Kubernetes provides native autoscaling mechanisms, including the Horizontal Pod Autoscaler, Vertical Pod Autoscaler, and node-level autoscalers, to enable elastic resource management for cloud-native applications. However, production environments frequently experience Service Level Objective violations and cost inefficiencies due to reactive scaling behavior, limited use of application-level signals, and opaque control logic. This paper investigates how Kubernetes autoscaling can be enhanced using AIOps principles to jointly satisfy SLO and cost constraints under diverse workload patterns without compromising safety or operational transparency. We present a gap-driven analysis of existing autoscaling approaches and propose a safe and explainable multi-signal autoscaling framework that integrates SLO-aware and cost-conscious control with lightweight demand forecasting. Experimental evaluation using representative microservice and event-driven workloads shows that the proposed approach reduces SLO violation duration by up to 31 percent, improves scaling response time by 24 percent, and lowers infrastructure cost by 18 percent compared to default and tuned Kubernetes autoscaling baselines, while maintaining stable and auditable control behavior. These results demonstrate that AIOps-driven, SLO-first autoscaling can significantly improve the reliability, efficiency, and operational trustworthiness of Kubernetes-based cloud platforms.
- Abstract(参考訳): Kubernetesは、クラウドネイティブアプリケーションのエラスティックリソース管理を可能にするために、Horizontal Pod Autoscaler、Vertical Pod Autoscaler、ノードレベルのAutoscalerなどのネイティブ自動スケーリングメカニズムを提供する。
しかし、プロダクション環境は、リアクティブなスケーリングの振る舞い、アプリケーションレベルの信号の使用の制限、不透明な制御ロジックによって、サービスレベルオブジェクト違反やコスト不効率を頻繁に経験します。
本稿では、安全や運用上の透明性を損なうことなく、さまざまなワークロードパターンの下でSLOとコスト制約を共同で満たすために、AIOps原則を使用してKubernetesの自動スケーリングをどのように拡張できるかを検討する。
本稿では、既存の自動スケーリング手法のギャップ駆動分析を行い、SLO認識とコスト意識制御と軽量需要予測を統合した安全かつ説明可能な多信号自動スケーリングフレームワークを提案する。
代表的マイクロサービスとイベント駆動ワークロードを使用した実験的評価によると、提案されたアプローチは、SLO違反期間を最大31%削減し、レスポンス時間のスケーリングを24%改善し、インフラストラクチャコストを、デフォルトと調整済みのKubernetesオートスケーリングベースラインと比較して18%削減し、安定的で監査可能なコントロール動作を維持している。
これらの結果は、AIOps駆動のSLOファーストオートスケーリングが、Kubernetesベースのクラウドプラットフォームの信頼性、効率、運用上の信頼性を大幅に向上することを示している。
関連論文リスト
- Reliable LLM-Based Edge-Cloud-Expert Cascades for Telecom Knowledge Systems [54.916243942641444]
大規模言語モデル(LLM)は、通信などの分野において、自動化の鍵となる存在として浮上している。
本研究では,問合せパイプラインによる意思決定を支援する,エッジクラウドに精通したLLMベースの知識システムについて検討する。
論文 参考訳(メタデータ) (2025-12-23T03:10:09Z) - Seer Self-Consistency: Advance Budget Estimation for Adaptive Test-Time Scaling [55.026048429595384]
テストタイムスケーリングは、Large Language Models (LLMs) の推論性能を向上させるが、かなりの計算コストを発生させる。
トークン効率とレイテンシを同時に向上する動的自己整合性フレームワークであるSeerSCを提案する。
論文 参考訳(メタデータ) (2025-11-12T13:57:43Z) - Dynamic Speculative Agent Planning [57.630218933994534]
大規模な言語モデルベースのエージェントは、遅延の禁止と推論コストのために、重要なデプロイメント課題に直面している。
本稿では,オンライン強化学習フレームワークである動的投機計画(Dynamic Speculative Planning, DSP)を紹介する。
2つの標準エージェントベンチマークの実験では、DSPは高速加速法に匹敵する効率を達成し、総コストを30%削減し、不要コストを60%まで削減している。
論文 参考訳(メタデータ) (2025-09-02T03:34:36Z) - STaleX: A Spatiotemporal-Aware Adaptive Auto-scaling Framework for Microservices [3.0846824529023382]
本稿では,これらの課題に対処するための制御理論,機械学習,時相の組み合わせを提案する。
本稿では,機能を統合し,リアルタイムリソース調整を可能にする適応型自動スケーリングフレームワークSTXaleを提案する。
当社のフレームワークは、サービス仕様やサービス間の依存関係を含む機能に加えて、ワークロードの時間的変動も考慮しています。
論文 参考訳(メタデータ) (2025-01-30T20:19:13Z) - Code-as-Monitor: Constraint-aware Visual Programming for Reactive and Proactive Robotic Failure Detection [56.66677293607114]
オープンセットのリアクティブかつアクティブな障害検出のためのCode-as-Monitor(CaM)を提案する。
モニタリングの精度と効率を高めるために,制約関連エンティティを抽象化する制約要素を導入する。
実験により、CaMは28.7%高い成功率を達成し、厳しい乱れの下で実行時間を31.8%短縮することが示された。
論文 参考訳(メタデータ) (2024-12-05T18:58:27Z) - Multi-Level ML Based Burst-Aware Autoscaling for SLO Assurance and Cost
Efficiency [3.5624365288866007]
本稿では、複雑なワークロード下でコンテナ化されたクラウドサービスやアプリケーションのためのBurst-Aware AutoscalingフレームワークであるBAScalerを紹介します。
BAScalerには、予測可能な周期的なワークロードスパイクと実際のバーストを区別する、予測に基づく新しいバースト検出機構が組み込まれている。
論文 参考訳(メタデータ) (2024-02-20T12:28:25Z) - OptScaler: A Collaborative Framework for Robust Autoscaling in the Cloud [10.97507717758812]
最適化モジュールを通じてプロアクティブおよびリアクティブモジュールを統合する,協調的な自動スケーリングフレームワークであるOpsScalerを提案する。
数値計算の結果,ワークロード予測モデルと協調フレームワークの優位性が示された。
論文 参考訳(メタデータ) (2023-10-26T04:38:48Z) - A Deep Recurrent-Reinforcement Learning Method for Intelligent AutoScaling of Serverless Functions [18.36339203254509]
Fは軽量で関数ベースのクラウド実行モデルを導入し、IoTエッジデータ処理や異常検出など、さまざまなアプリケーションでその妥当性を見出す。
論文 参考訳(メタデータ) (2023-08-11T04:41:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。