論文の概要: Harvesting Idle Resources in Serverless Computing via Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2108.12717v1
- Date: Sat, 28 Aug 2021 23:02:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-31 14:22:31.412473
- Title: Harvesting Idle Resources in Serverless Computing via Reinforcement
Learning
- Title(参考訳): 強化学習によるサーバレスコンピューティングにおけるアイドルリソースのハーベスティング
- Authors: Hanfei Yu, Hao Wang, Jian Li, Seung-Jong Park
- Abstract要約: FRMは、過給関数から過給関数から過給関数へ動的にアイドルリソースを収穫することで、資源効率を最大化する。
FRMは、各関数のリソース利用をリアルタイムで監視し、過剰なプロビジョニングと過剰なプロビジョンを検出し、深い強化学習を適用してアイドルリソースを安全に回収する。
我々は、FRMプロトタイプを13ノードのApache OpenWhiskクラスタで実装し、デプロイした。
- 参考スコア(独自算出の注目度): 7.346628578439277
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Serverless computing has become a new cloud computing paradigm that promises
to deliver high cost-efficiency and simplified cloud deployment with automated
resource scaling at a fine granularity. Users decouple a cloud application into
chained functions and preset each serverless function's memory and CPU demands
at megabyte-level and core-level, respectively. Serverless platforms then
automatically scale the number of functions to accommodate the workloads.
However, the complexities of chained functions make it non-trivial to
accurately determine the resource demands of each function for users, leading
to either resource over-provision or under-provision for individual functions.
This paper presents FaaSRM, a new resource manager (RM) for serverless
platforms that maximizes resource efficiency by dynamically harvesting idle
resources from functions over-supplied to functions under-supplied. FaaSRM
monitors each function's resource utilization in real-time, detects
over-provisioning and under-provisioning, and applies deep reinforcement
learning to harvest idle resources safely using a safeguard mechanism and
accelerate functions efficiently. We have implemented and deployed a FaaSRM
prototype in a 13-node Apache OpenWhisk cluster. Experimental results on the
OpenWhisk cluster show that FaaSRM reduces the execution time of 98% of
function invocations by 35.81% compared to the baseline RMs by harvesting idle
resources from 38.8% of the invocations and accelerating 39.2% of the
invocations.
- Abstract(参考訳): サーバレスコンピューティングは新しいクラウドコンピューティングパラダイムとなり、コスト効率が高く、自動化されたリソーススケーリングを細かい粒度で実現する。
クラウドアプリケーションをチェーン関数に分離し、各サーバレス関数のメモリとCPU要求をそれぞれメガバイトレベルとコアレベルにプリセットする。
サーバレスプラットフォームは、ワークロードに対応する関数数を自動的にスケールする。
しかし、連鎖関数の複雑さは、ユーザに対する各関数のリソース要求を正確に決定することが非自明であり、個々の関数のリソースオーバープロビジョンかアンダープロビジョンのいずれかに繋がる。
本稿では、過給関数から過給関数からアイドルリソースを動的に回収し、リソース効率を最大化するサーバーレスプラットフォーム向けの新しいリソースマネージャであるFaaSRMを提案する。
faasrmは、各機能のリソース利用をリアルタイムで監視し、過剰なプロビジョンと過度なプロビジョンを検出し、保護機構を用いて安全にアイドルリソースを収集し、効率的に機能を加速する。
我々は,FaaSRMのプロトタイプを13ノードのApache OpenWhiskクラスタに実装し,デプロイした。
OpenWhiskクラスタの実験結果によると、FaaSRMは38.8%のアイドルリソースを収穫し、39.2%の呼び出しを加速することにより、ファンクション呼び出しの98%の実行時間をベースラインRMと比較して35.81%削減している。
関連論文リスト
- Input-Based Ensemble-Learning Method for Dynamic Memory Configuration of Serverless Computing Functions [18.36339203254509]
本稿では、入力認識によるサーバレス関数のメモリ要求を推定するサーバーレスソリューションであるMemFigLessを紹介する。
MemFigLessは、入力対応のリソース関係をキャプチャし、最大82%のリソースを割り当て、最大87%のランタイムコストを節約できる。
論文 参考訳(メタデータ) (2024-11-12T00:03:11Z) - The Power of Resets in Online Reinforcement Learning [73.64852266145387]
ローカルシミュレータアクセス(あるいはローカルプランニング)を用いたオンライン強化学習を通してシミュレータのパワーを探求する。
カバー性が低いMPPは,Qstar$-realizabilityのみのサンプル効率で学習可能であることを示す。
ローカルシミュレーターアクセス下では, 悪名高いExogenous Block MDP問題が抽出可能であることを示す。
論文 参考訳(メタデータ) (2024-04-23T18:09:53Z) - SPES: Towards Optimizing Performance-Resource Trade-Off for Serverless Functions [31.01399126339857]
サーバーレスコンピューティングは、その効率性とオンデマンドのクラウドリソースを活用する能力によって、勢いを増している。
既存のソリューションでは、完全な呼び出しパターンを使わずに関数のプリロード/アンロードのために、過剰に単純化された戦略を使う傾向があります。
本研究では、サーバーレス関数のプロビジョニングを最適化することにより、実行時コールドスタート緩和のための最初の差別化スケジューラであるSPESを提案する。
論文 参考訳(メタデータ) (2024-03-26T10:28:41Z) - ReLU$^2$ Wins: Discovering Efficient Activation Functions for Sparse
LLMs [91.31204876440765]
本稿では、ニューロンの出力の等級と調整された等級しきい値によってニューロンの活性化を定義する一般的な方法を提案する。
スパース計算における最も効率的なアクティベーション関数を見つけるために,本手法を提案する。
我々は、ReLU、SwiGLU、ReGLU、ReLU$2$といった異なるアクティベーション機能を利用したLCMの徹底的な実験を行う。
論文 参考訳(メタデータ) (2024-02-06T08:45:51Z) - Shabari: Delayed Decision-Making for Faster and Efficient Serverless
Functions [0.30693357740321775]
サーバレスシステムのためのリソース管理フレームワークであるShabariを紹介します。
Shabariは、機能のパフォーマンス目標を満たすために、各呼び出しの右サイズを可能な限り遅くする。
さまざまなサーバレス関数と入力に対して、ShabariはSLO違反を11~73%削減する。
論文 参考訳(メタデータ) (2024-01-16T22:20:36Z) - On-demand Cold Start Frequency Reduction with Off-Policy Reinforcement Learning in Serverless Computing [18.36339203254509]
提案した研究は、強化学習(RL)を用いて、プラットフォーム上での頻繁でオンデマンドなコールドスタートを減らすことに焦点を当てている。
提案手法では,CPU利用率や既存関数インスタンス,応答障害率といった関数メトリクスを考慮したモデルフリーQ-ラーニングを用いて,関数を前もって積極的に初期化する。
評価結果は,Kubelessのデフォルトポリシや関数維持ポリシと比較して,RLベースのエージェントの性能が良好であることを示す。
論文 参考訳(メタデータ) (2023-08-15T03:01:41Z) - Computation Offloading and Resource Allocation in F-RANs: A Federated
Deep Reinforcement Learning Approach [67.06539298956854]
フォグ無線アクセスネットワーク(フォグ無線アクセスネットワーク、F-RAN)は、ユーザのモバイルデバイス(MD)が計算タスクを近くのフォグアクセスポイント(F-AP)にオフロードできる有望な技術である。
論文 参考訳(メタデータ) (2022-06-13T02:19:20Z) - DeF-DReL: Systematic Deployment of Serverless Functions in Fog and Cloud
environments using Deep Reinforcement Learning [8.204696165200577]
Fog環境は、サーバーレスアプリケーションをデプロイするために、限られたリソースを多数のユーザに提供した。
最近の研究は、主に霧のノードからそのようなアプリケーションに最大限のリソースを割り当てることに焦点を当てており、クラウド環境を最大限に活用していない。
我々は,DeF-DReLを提案する。DeF-DReLは,Deep Reinforcement Learningを用いて,フォッグおよびクラウド環境におけるサーバレス関数のシステム展開を行う。
論文 参考訳(メタデータ) (2021-10-29T12:10:54Z) - Pollux: Co-adaptive Cluster Scheduling for Goodput-Optimized Deep
Learning [61.29990368322931]
Polluxは、相互依存要因を適応的に最適化することで、ディープラーニング(DL)クラスタのスケジューリング性能を改善する。
Polluxは、最先端のDLスケジューラと比較して、平均的なジョブ完了時間を37-50%削減する。
論文 参考訳(メタデータ) (2020-08-27T16:56:48Z) - A Machine Learning Approach for Task and Resource Allocation in Mobile
Edge Computing Based Networks [108.57859531628264]
無線ネットワークにおいて,共同作業,スペクトル,送信電力配分問題について検討する。
提案アルゴリズムは、標準Q-ラーニングアルゴリズムと比較して、収束に必要なイテレーション数と全ユーザの最大遅延を最大18%、11.1%削減することができる。
論文 参考訳(メタデータ) (2020-07-20T13:46:42Z) - Dynamic Parameter Allocation in Parameter Servers [74.250687861348]
本稿では,パラメータサーバに動的パラメータ割り当てを組み込んで,Lapse と呼ばれるパラメータサーバの効率的な実装を提案する。
Lapseはニアリニアなスケーリングを提供しており、既存のパラメータサーバよりも桁違いに高速であることがわかった。
論文 参考訳(メタデータ) (2020-02-03T11:37:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。