論文の概要: Reinforcement Learning (RL) Augmented Cold Start Frequency Reduction in
Serverless Computing
- arxiv url: http://arxiv.org/abs/2308.07541v1
- Date: Tue, 15 Aug 2023 03:01:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-16 14:09:24.771496
- Title: Reinforcement Learning (RL) Augmented Cold Start Frequency Reduction in
Serverless Computing
- Title(参考訳): 強化学習(rl)によるサーバーレスコンピューティングにおけるコールドスタート頻度の低減
- Authors: Siddharth Agarwal, Maria A. Rodriguez, Rajkumar Buyya
- Abstract要約: この研究は、強化学習(Reinforcement Learning)を用いることで、Function-as-a-Serviceプラットフォーム上でのコールドスタートの頻度を減らすことに重点を置いている。
提案手法はKubeless上で実装され,作業負荷として行列乗算を用いた実世界の関数要求トレースを用いて評価された。
- 参考スコア(独自算出の注目度): 20.638612359627952
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Function-as-a-Service is a cloud computing paradigm offering an event-driven
execution model to applications. It features serverless attributes by
eliminating resource management responsibilities from developers and offers
transparent and on-demand scalability of applications. Typical serverless
applications have stringent response time and scalability requirements and
therefore rely on deployed services to provide quick and fault-tolerant
feedback to clients. However, the FaaS paradigm suffers from cold starts as
there is a non-negligible delay associated with on-demand function
initialization. This work focuses on reducing the frequency of cold starts on
the platform by using Reinforcement Learning. Our approach uses Q-learning and
considers metrics such as function CPU utilization, existing function
instances, and response failure rate to proactively initialize functions in
advance based on the expected demand. The proposed solution was implemented on
Kubeless and was evaluated using a normalised real-world function demand trace
with matrix multiplication as the workload. The results demonstrate a
favourable performance of the RL-based agent when compared to Kubeless' default
policy and function keep-alive policy by improving throughput by up to 8.81%
and reducing computation load and resource wastage by up to 55% and 37%,
respectively, which is a direct outcome of reduced cold starts.
- Abstract(参考訳): function-as-a-serviceは、アプリケーションにイベント駆動実行モデルを提供するクラウドコンピューティングパラダイムである。
開発者からリソース管理の責務を排除し、アプリケーションの透過的かつオンデマンドなスケーラビリティを提供する。
一般的なサーバーレスアプリケーションは、応答時間とスケーラビリティの要件が厳しいため、クライアントに迅速かつフォールトトレラントなフィードバックを提供するために、デプロイされたサービスに依存する。
しかし、FaaSパラダイムはオンデマンド関数の初期化に伴う非無視的な遅延があるため、コールドスタートに苦しむ。
本研究は強化学習を用いて,プラットフォーム上でのコールドスタート頻度の低減に重点を置いている。
提案手法ではQ-learningを用いて,期待する要求に基づいて,関数CPU利用,既存関数インスタンス,応答障害率などのメトリクスを前向きに初期化する。
提案手法はkubeless上で実装され,実世界の関数要求トレースと行列乗算を負荷として評価した。
その結果,最大8.81%のスループット向上と最大55%,37%の計算負荷とリソース浪費削減により,kubelessのデフォルトポリシや関数保留ポリシと比較した場合,rlベースのエージェントが好適な性能を示し,コールドスタートの直接的な結果となった。
関連論文リスト
- Shabari: Delayed Decision-Making for Faster and Efficient Serverless
Functions [0.30693357740321775]
サーバレスシステムのためのリソース管理フレームワークであるShabariを紹介します。
Shabariは、機能のパフォーマンス目標を満たすために、各呼び出しの右サイズを可能な限り遅くする。
さまざまなサーバレス関数と入力に対して、ShabariはSLO違反を11~73%削減する。
論文 参考訳(メタデータ) (2024-01-16T22:20:36Z) - Augmenting Unsupervised Reinforcement Learning with Self-Reference [63.68018737038331]
人間は、新しいタスクを学ぶ際に、過去の経験を明確に表現する能力を持っている。
本稿では,歴史情報を活用するためのアドオンモジュールとして,自己参照(SR)アプローチを提案する。
提案手法は,非教師付き強化学習ベンチマークにおけるIQM(Interquartile Mean)性能と最適ギャップ削減の両面から,最先端の成果を実現する。
論文 参考訳(メタデータ) (2023-11-16T09:07:34Z) - Resource-Aware Hierarchical Federated Learning for Video Caching in
Wireless Networks [29.137803674759848]
ユーザの要求が時間とともにどのように変化するかを学ぶためには,プライバシ保護手法が望ましい。
本稿では,ユーザの今後のコンテンツ要求を予測するために,リソースを意識した階層型学習(RawHFL)ソリューションを提案する。
シミュレーションの結果,提案手法は予測精度と総エネルギー消費率において,検討されたベースラインを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-11-12T18:23:17Z) - Client Orchestration and Cost-Efficient Joint Optimization for
NOMA-Enabled Hierarchical Federated Learning [55.49099125128281]
半同期クラウドモデルアグリゲーションの下で非直交多重アクセス(NOMA)を実現するHFLシステムを提案する。
提案手法は,HFLの性能改善と総コスト削減に関するベンチマークよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-11-03T13:34:44Z) - A Deep Recurrent-Reinforcement Learning Method for Intelligent
AutoScaling of Serverless Functions [21.260954070091]
本稿では,関数オートスケーリングのためのモデルフリーリカレントRLエージェントについて検討し,モデルフリー近似ポリシー最適化アルゴリズムと比較する。
LSTMベースのオートスケーリングエージェントは、スループットを18%向上し、関数の実行を13%向上し、関数インスタンスを8.4%増やすことができる。
論文 参考訳(メタデータ) (2023-08-11T04:41:19Z) - Differentially Private Deep Q-Learning for Pattern Privacy Preservation
in MEC Offloading [76.0572817182483]
攻撃者は、エッジサーバ(ES)のキュー情報とユーザの使用パターンを推測するために、オフロードの決定を盗み取ることができる。
パターンプライバシ(PP)を維持しつつ,レイテンシ,ESのエネルギー消費,タスク削減率を両立させるオフロード戦略を提案する。
そこで我々はDP-DQOアルゴリズムを開発し,PP問題にノイズを注入することでこの問題に対処する。
論文 参考訳(メタデータ) (2023-02-09T12:50:18Z) - FIRE: A Failure-Adaptive Reinforcement Learning Framework for Edge
Computing Migrations [55.131858975133085]
FIREは、エッジコンピューティングのディジタルツイン環境でRLポリシーをトレーニングすることで、まれなイベントに適応するフレームワークである。
ImREは重要なサンプリングに基づくQ-ラーニングアルゴリズムであり、希少事象をその値関数への影響に比例してサンプリングする。
FIREは故障時にバニラRLやグリーディベースラインと比較してコストを削減できることを示す。
論文 参考訳(メタデータ) (2022-09-28T19:49:39Z) - Harvesting Idle Resources in Serverless Computing via Reinforcement
Learning [7.346628578439277]
FRMは、過給関数から過給関数から過給関数へ動的にアイドルリソースを収穫することで、資源効率を最大化する。
FRMは、各関数のリソース利用をリアルタイムで監視し、過剰なプロビジョニングと過剰なプロビジョンを検出し、深い強化学習を適用してアイドルリソースを安全に回収する。
我々は、FRMプロトタイプを13ノードのApache OpenWhiskクラスタで実装し、デプロイした。
論文 参考訳(メタデータ) (2021-08-28T23:02:56Z) - Joint Client Scheduling and Resource Allocation under Channel
Uncertainty in Federated Learning [47.97586668316476]
無線ネットワーク上のフェデレートラーニング(FL)は、クライアントサーバの接続性とクライアントのローカル計算能力の信頼性に依存する。
本稿では、FLを用いたモデルトレーニングの性能を高めるため、クライアントスケジューリングとリソースブロック(RB)割り当ての問題について検討する。
提案手法は,最先端クライアントスケジューリングやRBアロケーション手法と比較して,トレーニング精度損失のギャップを最大40.7%削減する。
論文 参考訳(メタデータ) (2021-06-12T15:18:48Z) - Multi-Armed Bandit Based Client Scheduling for Federated Learning [91.91224642616882]
統合学習(FL)は、通信オーバーヘッドの低減やデータのプライバシの保護など、ユビキタスな特性を特徴とする。
FLの各通信ラウンドでは、クライアントは自身のデータに基づいてローカルモデルを更新し、無線チャネル経由でローカル更新をアップロードする。
本研究は、無線チャネルの状態情報やクライアントの統計的特性を知ることなく、FLにおけるオンラインクライアントスケジューリング(CS)のためのマルチアームバンディットベースのフレームワークを提供する。
論文 参考訳(メタデータ) (2020-07-05T12:32:32Z) - AI-based Resource Allocation: Reinforcement Learning for Adaptive
Auto-scaling in Serverless Environments [0.0]
近年、サーバーレスコンピューティングはクラウドコンピューティングモデルの魅力的な新しいパラダイムとして現れています。
商用およびオープンソースのサーバレスコンピューティングプラットフォームに共通するアプローチは、ワークロードベースの自動スケーリングである。
本稿では、サーバーレスフレームワークにおける要求ベース自動スケーリングに対する強化学習アプローチの適用性について検討する。
論文 参考訳(メタデータ) (2020-05-29T06:18:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。