論文の概要: Revisiting the Performance of Serverless Computing: An Analysis of
Variance
- arxiv url: http://arxiv.org/abs/2305.04309v1
- Date: Sun, 7 May 2023 15:32:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-10-24 12:05:26.624980
- Title: Revisiting the Performance of Serverless Computing: An Analysis of
Variance
- Title(参考訳): サーバーレスコンピューティングのパフォーマンスの再検討:分散分析
- Authors: Jinfeng Wen, Zhenpeng Chen, Federica Sarro, Xuanzhe Liu
- Abstract要約: サーバレスコンピューティングは、ソフトウェアエンジニアが関数の粒度でアプリケーションを開発することを可能にする(サーバレス関数と呼ばれる)。
同じサーバレス関数の複数の同一実行は、これらの関数が実行される非常にダイナミックな基盤環境のため、異なるパフォーマンスを示すことができる。
トップレベルのカンファレンスで公開された59の関連研究論文を調査し、サーバーレス関数のパフォーマンスのばらつきを定量化するために複数のランを使用するのは、40.68%に過ぎません。
- 参考スコア(独自算出の注目度): 14.872563076658563
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Serverless computing is an emerging cloud computing paradigm, which allows
software engineers to develop applications at the granularity of function
(called serverless functions). However, multiple identical runs of the same
serverless functions can show different performance (i.e., response latencies)
due to the highly dynamic underlying environment where these functions are
executed. We conduct the first work to study serverless function performance to
raise awareness of this variance among researchers. We investigate 59 related
research papers published in top-tier conferences, and observe that only 40.68%
of them use multiple runs to quantify the variance of serverless function
performance. Then we extract 65 serverless functions used in these papers and
find that the performance of these serverless functions can differ by up to
338.76% (44.15% on average), indicating a large magnitude of the variance.
Furthermore, we find that 61.54% of these functions can have unreliable
performance results at the low number of repetitions that are widely adopted in
the serverless computing literature.
- Abstract(参考訳): サーバレスコンピューティングは、ソフトウェアエンジニアが関数の粒度(サーバレス機能と呼ばれる)でアプリケーションを開発することを可能にする、新たなクラウドコンピューティングパラダイムである。
しかしながら、同じサーバレス関数の複数の同一実行は、これらの関数が実行される非常にダイナミックな基盤環境のため、異なるパフォーマンス(すなわち応答レイテンシ)を示すことができる。
我々は、サーバーレス機能性能を研究するための最初の研究を行い、研究者間の差異に対する意識を高める。
トップレベルのカンファレンスで発表された59の関連研究論文を調査し、サーバレス機能のパフォーマンスのばらつきを定量化するために複数の実行を使用しているのは40.68%に過ぎません。
次に、これらの論文で使用される65のサーバレス関数を抽出し、これらのサーバレス関数のパフォーマンスが338.76%(平均44.15%)まで異なることを発見し、大きなばらつきを示している。
さらに、これらの関数の61.54%は、サーバーレスコンピューティングの文献で広く採用されている、低い回数の繰り返しにおいて、信頼性の低いパフォーマンス結果が得られる。
関連論文リスト
- When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications [1.3398445165628463]
本稿では,クラウド性能の変動がベンチマーク結果に与える影響を実証的に定量化する。
約591時間の試験、AWS上の789クラスタのデプロイ、2366ベンチマークの実行などにより、この種の調査としては最大のものと思われる。
論文 参考訳(メタデータ) (2025-04-16T07:22:44Z) - On the Mistaken Assumption of Interchangeable Deep Reinforcement Learning Implementations [53.0667196725616]
ディープ・強化学習(Deep Reinforcement Learning, DRL)とは、エージェントがニューラルネットワークを使って特定の環境でどのアクションをとるかを学ぶ人工知能のパラダイムである。
DRLは最近、ドライビングシミュレーター、3Dロボット制御、マルチプレイヤー・オンライン・バトル・アリーナ・ビデオゲームといった複雑な環境を解くことで注目を集めている。
現在、Deep Q-Network (DQN) や Proximal Policy Optimization (PPO) アルゴリズムのような、これらのエージェントを訓練する最先端のアルゴリズムの実装が数多く存在する。
論文 参考訳(メタデータ) (2025-03-28T16:25:06Z) - Input-Based Ensemble-Learning Method for Dynamic Memory Configuration of Serverless Computing Functions [18.36339203254509]
本稿では、入力認識によるサーバレス関数のメモリ要求を推定するサーバーレスソリューションであるMemFigLessを紹介する。
MemFigLessは、入力対応のリソース関係をキャプチャし、最大82%のリソースを割り当て、最大87%のランタイムコストを節約できる。
論文 参考訳(メタデータ) (2024-11-12T00:03:11Z) - SeBS-Flow: Benchmarking Serverless Cloud Function Workflows [51.4200085836966]
本稿では、最初のサーバーレスワークフローベンチマークスイートSeBS-Flowを提案する。
SeBS-Flowには6つの実世界のアプリケーションベンチマークと、異なる計算パターンを表す4つのマイクロベンチマークが含まれている。
当社では,パフォーマンス,コスト,スケーラビリティ,ランタイムの偏差など,3つの主要なクラウドプラットフォームに関する包括的な評価を実施しています。
論文 参考訳(メタデータ) (2024-10-04T14:52:18Z) - Switchable Decision: Dynamic Neural Generation Networks [98.61113699324429]
本稿では,各データインスタンスのリソースを動的に割り当てることで,推論を高速化するスイッチブルな決定を提案する。
提案手法は, 同一の精度を維持しながら, 推論時のコスト低減に有効である。
論文 参考訳(メタデータ) (2024-05-07T17:44:54Z) - Shabari: Delayed Decision-Making for Faster and Efficient Serverless
Functions [0.30693357740321775]
サーバレスシステムのためのリソース管理フレームワークであるShabariを紹介します。
Shabariは、機能のパフォーマンス目標を満たすために、各呼び出しの右サイズを可能な限り遅くする。
さまざまなサーバレス関数と入力に対して、ShabariはSLO違反を11~73%削減する。
論文 参考訳(メタデータ) (2024-01-16T22:20:36Z) - SuperFlow: Performance Testing for Serverless Computing [14.872563076658563]
サーバレスコンピューティングに特化した最初のパフォーマンステストアプローチであるSuperFlowを提案する。
SuperFlowは97.22%の精度、39.91ポイントの試験結果を提供する。
論文 参考訳(メタデータ) (2023-06-02T15:29:28Z) - Multi-task Bias-Variance Trade-off Through Functional Constraints [102.64082402388192]
マルチタスク学習は、多様なタスクによく機能する関数の集合を取得することを目的としている。
本稿では,2つの極端な学習シナリオ,すなわちすべてのタスクに対する単一関数と,他のタスクを無視するタスク固有関数から直感を抽出する。
本稿では,集中関数に対するドメイン固有解を強制する制約付き学習定式化を導入する。
論文 参考訳(メタデータ) (2022-10-27T16:06:47Z) - Continual Feature Selection: Spurious Features in Continual Learning [0.0]
本稿では,連続学習アルゴリズムにおける特徴量の影響について考察する。
一般化不可能な特徴を過度に組み合わせることで,学習アルゴリズムがタスクを解くことを示す。
論文 参考訳(メタデータ) (2022-03-02T10:43:54Z) - Compactness Score: A Fast Filter Method for Unsupervised Feature
Selection [66.84571085643928]
本稿では,CSUFS (Compactness Score) と呼ばれる高速な教師なし特徴選択手法を提案する。
提案アルゴリズムは既存のアルゴリズムよりも正確で効率的である。
論文 参考訳(メタデータ) (2022-01-31T13:01:37Z) - DAPPER: Label-Free Performance Estimation after Personalization for
Heterogeneous Mobile Sensing [95.18236298557721]
DAPPER(Domain AdaPtation Performance EstimatoR)を提案する。
実世界の6つのベースラインと比較した4つのセンシングデータセットによる評価の結果,DAPPERの精度は39.8%向上した。
論文 参考訳(メタデータ) (2021-11-22T08:49:33Z) - Harvesting Idle Resources in Serverless Computing via Reinforcement
Learning [7.346628578439277]
FRMは、過給関数から過給関数から過給関数へ動的にアイドルリソースを収穫することで、資源効率を最大化する。
FRMは、各関数のリソース利用をリアルタイムで監視し、過剰なプロビジョニングと過剰なプロビジョンを検出し、深い強化学習を適用してアイドルリソースを安全に回収する。
我々は、FRMプロトタイプを13ノードのApache OpenWhiskクラスタで実装し、デプロイした。
論文 参考訳(メタデータ) (2021-08-28T23:02:56Z) - Neural Network Approximation of Refinable Functions [8.323468006516018]
本研究では, 深部ReLUネットワークの出力幅が一定であり, 精度指数で深部を増大させることにより, 精錬可能関数が近似可能であることを示す。
本研究は,ウェーブレットの標準構成に使用される関数と,コンピュータ支援幾何設計における部分分割アルゴリズムを用いて構築される関数に適用する。
論文 参考訳(メタデータ) (2021-07-28T06:45:36Z) - UNIPoint: Universally Approximating Point Processes Intensities [125.08205865536577]
学習可能な関数のクラスが任意の有効な強度関数を普遍的に近似できることを示す。
ニューラルポイントプロセスモデルであるUNIPointを実装し,各イベントの基底関数の和をパラメータ化するために,リカレントニューラルネットワークを用いた。
論文 参考訳(メタデータ) (2020-07-28T09:31:56Z) - Detecting and Understanding Real-World Differential Performance Bugs in
Machine Learning Libraries [2.879036956042183]
同じサイズであるにもかかわらず、パフォーマンスが広く変化するインプットを見つけます。
我々は,単一入力だけでなく,各クラスがそれぞれのサイズによってパラメータ化される類似入力を持つ入力のクラスの性能を比較する。
重要なことに、パフォーマンスバグの修正に簡単に使用できる形式で、なぜパフォーマンスが異なるのか、という説明も提供します。
論文 参考訳(メタデータ) (2020-06-03T00:23:06Z) - Dynamic Federated Learning [57.14673504239551]
フェデレートラーニング(Federated Learning)は、マルチエージェント環境における集中的なコーディネーション戦略の包括的用語として登場した。
我々は、各イテレーションにおいて、利用可能なエージェントのランダムなサブセットがそのデータに基づいてローカル更新を実行する、フェデレートされた学習モデルを考える。
集約最適化問題に対する真の最小化器上の非定常ランダムウォークモデルの下で、アーキテクチャの性能は、各エージェントにおけるデータ変動率、各エージェントにおけるモデル変動率、アルゴリズムの学習率に逆比例する追跡項の3つの要因によって決定されることを示す。
論文 参考訳(メタデータ) (2020-02-20T15:00:54Z) - Dynamic Parameter Allocation in Parameter Servers [74.250687861348]
本稿では,パラメータサーバに動的パラメータ割り当てを組み込んで,Lapse と呼ばれるパラメータサーバの効率的な実装を提案する。
Lapseはニアリニアなスケーリングを提供しており、既存のパラメータサーバよりも桁違いに高速であることがわかった。
論文 参考訳(メタデータ) (2020-02-03T11:37:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。