論文の概要: Unveiling Overlooked Performance Variance in Serverless Computing
- arxiv url: http://arxiv.org/abs/2305.04309v2
- Date: Sat, 11 Jan 2025 03:29:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-14 21:19:24.478921
- Title: Unveiling Overlooked Performance Variance in Serverless Computing
- Title(参考訳): サーバーレスコンピューティングで見過ごされるパフォーマンスのばらつきを解き明かす
- Authors: Jinfeng Wen, Zhenpeng Chen, Federica Sarro, Shangguang Wang,
- Abstract要約: この研究は、ソフトウェアエンジニアリングにおけるよく知られたパフォーマンス分散問題に対するサーバーレスコンピューティングコミュニティの認識の欠如を浮き彫りにしている。
この結果から、これらのサーバレス関数のパフォーマンスは、異なる実行毎に最大338.76%異なる可能性があることが判明した。
我々の研究は、ソフトウェアエンジニアリングにおけるよく知られたパフォーマンス分散問題に対するサーバーレスコンピューティングコミュニティの認識の欠如を強調している。
- 参考スコア(独自算出の注目度): 13.408015381602226
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Serverless computing is an emerging cloud computing paradigm for developing applications at the function level, known as serverless functions. Due to the highly dynamic execution environment, multiple identical runs of the same serverless function can yield different performance, specifically in terms of end-to-end response latency. However, surprisingly, our analysis of serverless computing-related papers published in top-tier conferences highlights that the research community lacks awareness of the performance variance problem, with only 38.38% of these papers employing multiple runs for quantifying it. To further investigate, we analyze the performance of 72 serverless functions collected from these papers. Our findings reveal that the performance of these serverless functions can differ by up to 338.76% (44.28% on average) across different runs. Moreover, 61.11% of these functions produce unreliable performance results, with a low number of repetitions commonly employed in the serverless computing literature. Our study highlights a lack of awareness in the serverless computing community regarding the well-known performance variance problem in software engineering. The empirical results illustrate the substantial magnitude of this variance, emphasizing that ignoring the variance can affect research reproducibility and result reliability.
- Abstract(参考訳): サーバレスコンピューティングは、サーバレス関数として知られる関数レベルでアプリケーションを開発するための、新たなクラウドコンピューティングパラダイムである。
非常にダイナミックな実行環境のため、同じサーバレス関数の複数の同一実行は、特にエンドツーエンドのレスポンスレイテンシの観点から、異なるパフォーマンスを得ることができる。
しかしながら、トップ階層のカンファレンスで公開されたサーバレスコンピューティング関連の論文の分析では、研究コミュニティにはパフォーマンスの分散問題に対する認識が欠けていることが強調され、これらの論文の38.38%がそれを定量化するために複数の実行を利用している。
さらに,これらの論文から収集した72のサーバレス関数の性能を分析した。
私たちの調査によると、これらのサーバレス機能のパフォーマンスは、さまざまな実行で最大338.76%(平均44.28%)まで異なる可能性がある。
さらに、これらの関数の61.11%は信頼性の低いパフォーマンスをもたらし、サーバーレスコンピューティングの文献で一般的に使用される繰り返し回数は少ない。
我々の研究は、ソフトウェアエンジニアリングにおけるよく知られたパフォーマンス分散問題に対するサーバーレスコンピューティングコミュニティの認識の欠如を強調している。
実験結果は、この分散を無視することは、研究の再現性と結果の信頼性に影響を与えることを強調して、この分散の実質的な大きさを示している。
関連論文リスト
- When Should I Run My Application Benchmark?: Studying Cloud Performance Variability for the Case of Stream Processing Applications [1.3398445165628463]
本稿では,クラウド性能の変動がベンチマーク結果に与える影響を実証的に定量化する。
約591時間の試験、AWS上の789クラスタのデプロイ、2366ベンチマークの実行などにより、この種の調査としては最大のものと思われる。
論文 参考訳(メタデータ) (2025-04-16T07:22:44Z) - On the Mistaken Assumption of Interchangeable Deep Reinforcement Learning Implementations [53.0667196725616]
ディープ・強化学習(Deep Reinforcement Learning, DRL)とは、エージェントがニューラルネットワークを使って特定の環境でどのアクションをとるかを学ぶ人工知能のパラダイムである。
DRLは最近、ドライビングシミュレーター、3Dロボット制御、マルチプレイヤー・オンライン・バトル・アリーナ・ビデオゲームといった複雑な環境を解くことで注目を集めている。
現在、Deep Q-Network (DQN) や Proximal Policy Optimization (PPO) アルゴリズムのような、これらのエージェントを訓練する最先端のアルゴリズムの実装が数多く存在する。
論文 参考訳(メタデータ) (2025-03-28T16:25:06Z) - Input-Based Ensemble-Learning Method for Dynamic Memory Configuration of Serverless Computing Functions [18.36339203254509]
本稿では、入力認識によるサーバレス関数のメモリ要求を推定するサーバーレスソリューションであるMemFigLessを紹介する。
MemFigLessは、入力対応のリソース関係をキャプチャし、最大82%のリソースを割り当て、最大87%のランタイムコストを節約できる。
論文 参考訳(メタデータ) (2024-11-12T00:03:11Z) - SeBS-Flow: Benchmarking Serverless Cloud Function Workflows [51.4200085836966]
本稿では、最初のサーバーレスワークフローベンチマークスイートSeBS-Flowを提案する。
SeBS-Flowには6つの実世界のアプリケーションベンチマークと、異なる計算パターンを表す4つのマイクロベンチマークが含まれている。
当社では,パフォーマンス,コスト,スケーラビリティ,ランタイムの偏差など,3つの主要なクラウドプラットフォームに関する包括的な評価を実施しています。
論文 参考訳(メタデータ) (2024-10-04T14:52:18Z) - Switchable Decision: Dynamic Neural Generation Networks [98.61113699324429]
本稿では,各データインスタンスのリソースを動的に割り当てることで,推論を高速化するスイッチブルな決定を提案する。
提案手法は, 同一の精度を維持しながら, 推論時のコスト低減に有効である。
論文 参考訳(メタデータ) (2024-05-07T17:44:54Z) - Shabari: Delayed Decision-Making for Faster and Efficient Serverless
Functions [0.30693357740321775]
サーバレスシステムのためのリソース管理フレームワークであるShabariを紹介します。
Shabariは、機能のパフォーマンス目標を満たすために、各呼び出しの右サイズを可能な限り遅くする。
さまざまなサーバレス関数と入力に対して、ShabariはSLO違反を11~73%削減する。
論文 参考訳(メタデータ) (2024-01-16T22:20:36Z) - SuperFlow: Performance Testing for Serverless Computing [14.872563076658563]
サーバレスコンピューティングに特化した最初のパフォーマンステストアプローチであるSuperFlowを提案する。
SuperFlowは97.22%の精度、39.91ポイントの試験結果を提供する。
論文 参考訳(メタデータ) (2023-06-02T15:29:28Z) - Multi-task Bias-Variance Trade-off Through Functional Constraints [102.64082402388192]
マルチタスク学習は、多様なタスクによく機能する関数の集合を取得することを目的としている。
本稿では,2つの極端な学習シナリオ,すなわちすべてのタスクに対する単一関数と,他のタスクを無視するタスク固有関数から直感を抽出する。
本稿では,集中関数に対するドメイン固有解を強制する制約付き学習定式化を導入する。
論文 参考訳(メタデータ) (2022-10-27T16:06:47Z) - Continual Feature Selection: Spurious Features in Continual Learning [0.0]
本稿では,連続学習アルゴリズムにおける特徴量の影響について考察する。
一般化不可能な特徴を過度に組み合わせることで,学習アルゴリズムがタスクを解くことを示す。
論文 参考訳(メタデータ) (2022-03-02T10:43:54Z) - Compactness Score: A Fast Filter Method for Unsupervised Feature
Selection [66.84571085643928]
本稿では,CSUFS (Compactness Score) と呼ばれる高速な教師なし特徴選択手法を提案する。
提案アルゴリズムは既存のアルゴリズムよりも正確で効率的である。
論文 参考訳(メタデータ) (2022-01-31T13:01:37Z) - DAPPER: Label-Free Performance Estimation after Personalization for
Heterogeneous Mobile Sensing [95.18236298557721]
DAPPER(Domain AdaPtation Performance EstimatoR)を提案する。
実世界の6つのベースラインと比較した4つのセンシングデータセットによる評価の結果,DAPPERの精度は39.8%向上した。
論文 参考訳(メタデータ) (2021-11-22T08:49:33Z) - Harvesting Idle Resources in Serverless Computing via Reinforcement
Learning [7.346628578439277]
FRMは、過給関数から過給関数から過給関数へ動的にアイドルリソースを収穫することで、資源効率を最大化する。
FRMは、各関数のリソース利用をリアルタイムで監視し、過剰なプロビジョニングと過剰なプロビジョンを検出し、深い強化学習を適用してアイドルリソースを安全に回収する。
我々は、FRMプロトタイプを13ノードのApache OpenWhiskクラスタで実装し、デプロイした。
論文 参考訳(メタデータ) (2021-08-28T23:02:56Z) - Neural Network Approximation of Refinable Functions [8.323468006516018]
本研究では, 深部ReLUネットワークの出力幅が一定であり, 精度指数で深部を増大させることにより, 精錬可能関数が近似可能であることを示す。
本研究は,ウェーブレットの標準構成に使用される関数と,コンピュータ支援幾何設計における部分分割アルゴリズムを用いて構築される関数に適用する。
論文 参考訳(メタデータ) (2021-07-28T06:45:36Z) - UNIPoint: Universally Approximating Point Processes Intensities [125.08205865536577]
学習可能な関数のクラスが任意の有効な強度関数を普遍的に近似できることを示す。
ニューラルポイントプロセスモデルであるUNIPointを実装し,各イベントの基底関数の和をパラメータ化するために,リカレントニューラルネットワークを用いた。
論文 参考訳(メタデータ) (2020-07-28T09:31:56Z) - Detecting and Understanding Real-World Differential Performance Bugs in
Machine Learning Libraries [2.879036956042183]
同じサイズであるにもかかわらず、パフォーマンスが広く変化するインプットを見つけます。
我々は,単一入力だけでなく,各クラスがそれぞれのサイズによってパラメータ化される類似入力を持つ入力のクラスの性能を比較する。
重要なことに、パフォーマンスバグの修正に簡単に使用できる形式で、なぜパフォーマンスが異なるのか、という説明も提供します。
論文 参考訳(メタデータ) (2020-06-03T00:23:06Z) - Dynamic Federated Learning [57.14673504239551]
フェデレートラーニング(Federated Learning)は、マルチエージェント環境における集中的なコーディネーション戦略の包括的用語として登場した。
我々は、各イテレーションにおいて、利用可能なエージェントのランダムなサブセットがそのデータに基づいてローカル更新を実行する、フェデレートされた学習モデルを考える。
集約最適化問題に対する真の最小化器上の非定常ランダムウォークモデルの下で、アーキテクチャの性能は、各エージェントにおけるデータ変動率、各エージェントにおけるモデル変動率、アルゴリズムの学習率に逆比例する追跡項の3つの要因によって決定されることを示す。
論文 参考訳(メタデータ) (2020-02-20T15:00:54Z) - Dynamic Parameter Allocation in Parameter Servers [74.250687861348]
本稿では,パラメータサーバに動的パラメータ割り当てを組み込んで,Lapse と呼ばれるパラメータサーバの効率的な実装を提案する。
Lapseはニアリニアなスケーリングを提供しており、既存のパラメータサーバよりも桁違いに高速であることがわかった。
論文 参考訳(メタデータ) (2020-02-03T11:37:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。