論文の概要: How Does It Function? Characterizing Long-term Trends in Production
Serverless Workloads
- arxiv url: http://arxiv.org/abs/2312.10127v1
- Date: Fri, 15 Dec 2023 14:43:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-19 18:23:04.031025
- Title: How Does It Function? Characterizing Long-term Trends in Production
Serverless Workloads
- Title(参考訳): どのように機能するか?
生産用サーバレスワークロードの長期的トレンドの特徴付け
- Authors: Artjom Joosen, Ahmed Hassan, Martin Asenov, Rajkarn Singh, Luke
Darlow, Jianfeng Wang, Adam Barker
- Abstract要約: この記事では、Huaweiのクラウドサーバーレストレースを2つリリースし、分析する。
トレースは7ヶ月以上にわたって、1.4兆以上の関数呼び出しを組み合わせています。
この結果は、サーバレス関数の振る舞いにかなりの多様性があることを示唆している。
- 参考スコア(独自算出の注目度): 28.52279669796457
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper releases and analyzes two new Huawei cloud serverless traces. The
traces span a period of over 7 months with over 1.4 trillion function
invocations combined. The first trace is derived from Huawei's internal
workloads and contains detailed per-second statistics for 200 functions running
across multiple Huawei cloud data centers. The second trace is a representative
workload from Huawei's public FaaS platform. This trace contains per-minute
arrival rates for over 5000 functions running in a single Huawei data center.
We present the internals of a production FaaS platform by characterizing
resource consumption, cold-start times, programming languages used,
periodicity, per-second versus per-minute burstiness, correlations, and
popularity. Our findings show that there is considerable diversity in how
serverless functions behave: requests vary by up to 9 orders of magnitude
across functions, with some functions executed over 1 billion times per day;
scheduling time, execution time and cold-start distributions vary across 2 to 4
orders of magnitude and have very long tails; and function invocation counts
demonstrate strong periodicity for many individual functions and on an
aggregate level. Our analysis also highlights the need for further research in
estimating resource reservations and time-series prediction to account for the
huge diversity in how serverless functions behave.
Datasets and code available at https://github.com/sir-lab/data-release
- Abstract(参考訳): 本稿では、huawei cloud serverless tracesを2つリリースし、分析する。
トレースは、1.4兆以上の関数呼び出しが組み合わさった7ヶ月以上の期間にまたがる。
最初のトレースはHuaweiの内部ワークロードから派生したもので、複数のHuaweiクラウドデータセンタ上で動作する200の関数に関する秒毎の詳細な統計を含んでいる。
第2のトレースは、huaweiの公開faasプラットフォームの代表的ワークロードである。
このトレースには、単一のhuaweiデータセンターで実行される5000以上の関数の分単位の到着率が含まれている。
本稿では,資源消費,コールドスタート時間,使用するプログラミング言語,周期性,秒間対分バーストネス,相関,人気度を特徴付けることで,本番FaaSプラットフォームの内部構造を示す。
リクエストは1日に10億回以上実行される機能,スケジューリング時間,実行時間,コールドスタート分布は2~4桁の規模で異なり,非常に長い尾を持つこと,関数呼び出し数は多数の個々の関数と集約レベルで強い周期性を示すこと,などだ。
我々の分析は、サーバーレス関数の振る舞いにおける大きな多様性を説明するために、リソース予約と時系列予測のさらなる研究の必要性も強調している。
データセットとコードはhttps://github.com/sir-lab/data-releaseで利用可能
関連論文リスト
- Granite-Function Calling Model: Introducing Function Calling Abilities via Multi-task Learning of Granular Tasks [35.97890508648945]
我々はApache 2.0ライセンスの下で-20B-FUNCTIONCALLINGモデルを紹介します。
モデルは7つの基本的なタスクに対してマルチタスクトレーニングアプローチを使用してトレーニングされる。
20B-FUNCTIONCALLINGは、7つの異なる評価データセットにおいて、複数のタスクに対してより一般化可能であることを示す。
論文 参考訳(メタデータ) (2024-06-27T17:47:26Z) - APIGen: Automated Pipeline for Generating Verifiable and Diverse Function-Calling Datasets [99.8988504388011]
APIGenは、関数呼び出しアプリケーションのための検証可能な高品質データセットを合成するために設計された、自動データ生成パイプラインである。
APIGenを活用して、21のカテゴリにわたる3,673の実行可能なAPIを収集し、多様な関数呼び出しデータセットを生成します。
機能呼び出しエージェントドメインの分野を推し進めるため、6万の高品質なエントリを含むデータセットをリリースする。
論文 参考訳(メタデータ) (2024-06-26T17:49:11Z) - Revisiting the Performance of Serverless Computing: An Analysis of
Variance [14.872563076658563]
サーバレスコンピューティングは、ソフトウェアエンジニアが関数の粒度でアプリケーションを開発することを可能にする(サーバレス関数と呼ばれる)。
同じサーバレス関数の複数の同一実行は、これらの関数が実行される非常にダイナミックな基盤環境のため、異なるパフォーマンスを示すことができる。
トップレベルのカンファレンスで公開された59の関連研究論文を調査し、サーバーレス関数のパフォーマンスのばらつきを定量化するために複数のランを使用するのは、40.68%に過ぎません。
論文 参考訳(メタデータ) (2023-05-07T15:32:16Z) - A Comprehensive Survey of Regression Based Loss Functions for Time
Series Forecasting [0.0]
時系列予測によく用いられる14のよく知られた回帰損失関数を要約した。
私たちのコードはGitHubで入手できる。 https://github.com/aryan-jadon/Regression-Loss-Functions-in-Time-Series-Forecasting-Tensorflow。
論文 参考訳(メタデータ) (2022-11-05T23:06:25Z) - Multi-task Bias-Variance Trade-off Through Functional Constraints [102.64082402388192]
マルチタスク学習は、多様なタスクによく機能する関数の集合を取得することを目的としている。
本稿では,2つの極端な学習シナリオ,すなわちすべてのタスクに対する単一関数と,他のタスクを無視するタスク固有関数から直感を抽出する。
本稿では,集中関数に対するドメイン固有解を強制する制約付き学習定式化を導入する。
論文 参考訳(メタデータ) (2022-10-27T16:06:47Z) - Learning While Scheduling in Multi-Server Systems with Unknown
Statistics: MaxWeight with Discounted UCB [18.898514227870926]
本稿では、複数のサーバと複数のタイプのジョブを持つマルチサーバシステムについて考察する。
目標は、処理時間の統計を知ることなく、サーバ上のジョブをスケジュールすることだ。
我々は,MaxWeightスケジューリングポリシと割引された高信頼度境界(UCB)を組み合わせることで,統計を同時に学習し,ジョブをサーバにスケジュールするアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-09-02T15:37:02Z) - NumS: Scalable Array Programming for the Cloud [82.827921577004]
タスクベース分散システム上でNumPyのような表現を最適化する配列プログラミングライブラリであるNumSを提案する。
これはLoad Simulated Hierarchical Scheduling (LSHS)と呼ばれる新しいスケジューラによって実現される。
LSHSは、ネットワーク負荷を2倍減らし、メモリを4倍減らし、ロジスティック回帰問題において実行時間を10倍減らし、Rayの性能を向上させる。
論文 参考訳(メタデータ) (2022-06-28T20:13:40Z) - Wukong: 100 Million Large-scale Chinese Cross-modal Pre-training Dataset
and A Foundation Framework [99.38817546900405]
本稿では,異なるマルチモーダル事前学習手法のベンチマークを行うため,中国の大規模クロスモーダルデータセットを提案する。
Wukongという大規模な中国のクロスモーダルデータセットをリリースし、Webから1億の中国語画像テキストペアを格納しています。
論文 参考訳(メタデータ) (2022-02-14T14:37:15Z) - Multi-Task Time Series Forecasting With Shared Attention [15.294939035413217]
マルチタスク時系列予測のための2つの自己注目型共有方式を提案する。
提案アーキテクチャは,最先端の単一タスク予測ベースラインを上回るだけでなく,RNNベースのマルチタスク予測手法よりも優れている。
論文 参考訳(メタデータ) (2021-01-24T04:25:08Z) - Temporally Correlated Task Scheduling for Sequence Learning [143.70523777803723]
多くのアプリケーションにおいて、シーケンス学習タスクは通常、複数の時間的に相関した補助タスクと関連付けられている。
シーケンス学習に学習可能なスケジューラを導入し、トレーニングのための補助的なタスクを適応的に選択できる。
本手法は,同時翻訳とストックトレンド予測の性能を著しく向上させる。
論文 参考訳(メタデータ) (2020-07-10T10:28:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。