論文の概要: Comprehensive Review of Performance Optimization Strategies for Serverless Applications on AWS Lambda
- arxiv url: http://arxiv.org/abs/2407.10397v1
- Date: Mon, 15 Jul 2024 02:18:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-16 16:30:30.510444
- Title: Comprehensive Review of Performance Optimization Strategies for Serverless Applications on AWS Lambda
- Title(参考訳): AWS Lambda上のサーバレスアプリケーションのパフォーマンス最適化戦略の総括的レビュー
- Authors: Mohamed Lemine El Bechir, Cheikh Sad Bouh, Abobakr Shuwail,
- Abstract要約: レビュー論文は、AWS Lambda上にデプロイされたサーバレスアプリケーションのパフォーマンス最適化戦略に関する最新の研究を合成する。
レビューでは、リソース管理、ランタイムの選択、可観測性の改善、ワークロード対応操作など、さまざまな最適化テクニックについて取り上げている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This review paper synthesizes the latest research on performance optimization strategies for serverless applications deployed on AWS Lambda. By examining recent studies, we highlight the challenges, solutions, and best practices for enhancing the performance, cost efficiency, and scalability of serverless applications. The review covers a range of optimization techniques including resource management, runtime selection, observability improvements, and workload aware operations.
- Abstract(参考訳): この記事では、AWS Lambda上にデプロイされたサーバレスアプリケーションのパフォーマンス最適化戦略に関する最新の研究を合成する。
最近の研究から、サーバレスアプリケーションのパフォーマンス、コスト効率、スケーラビリティを向上させる上での課題、ソリューション、ベストプラクティスを強調します。
レビューでは、リソース管理、ランタイムの選択、可観測性の改善、ワークロード対応操作など、さまざまな最適化テクニックについて取り上げている。
関連論文リスト
- Iterative or Innovative? A Problem-Oriented Perspective for Code Optimization [81.88668100203913]
大規模言語モデル(LLM)は、幅広いプログラミングタスクを解く上で強力な能力を示している。
本稿では,パフォーマンス向上に着目したコード最適化について検討する。
論文 参考訳(メタデータ) (2024-06-17T16:10:10Z) - Primitive Agentic First-Order Optimization [0.0]
本研究では,一階強化学習として,原始状態表現とエージェント環境相互作用を組み合わせた概念実証研究を提案する。
その結果,RLに基づく最適化では,基本的RL法と簡潔な部分的状態表現を組み合わせることで,複雑性の管理を最適化できることがわかった。
論文 参考訳(メタデータ) (2024-06-07T11:13:38Z) - Towards Coarse-to-Fine Evaluation of Inference Efficiency for Large Language Models [95.96734086126469]
大規模言語モデル(LLM)は、ユーザが仕事を達成するのを助けるアシスタントとして機能し、高度なアプリケーションの開発をサポートする。
LLMの幅広い応用にとって、推論効率は重要な問題であり、既存の研究で広く研究されている。
各種コードライブラリの推論性能の粗大な解析を行う。
論文 参考訳(メタデータ) (2024-04-17T15:57:50Z) - Rethinking and Benchmarking Predict-then-Optimize Paradigm for
Combinatorial Optimization Problems [62.25108152764568]
多くのWebアプリケーションは、エネルギーコストを考慮したスケジューリング、Web広告の予算配分、ソーシャルネットワークでのグラフマッチングなど、最適化問題の解決に頼っている。
統一システムにおける予測と意思決定の性能について考察する。
我々は、現在のアプローチを包括的に分類し、既存の実験シナリオを統合する。
論文 参考訳(メタデータ) (2023-11-13T13:19:34Z) - Towards Optimizing with Large Language Models [3.80039497875781]
各種タスクやデータサイズにまたがるLLMの最適化能力の評価を行う。
様々な視点からタスクパフォーマンスの総合評価を行うために,3つの異なる指標を紹介した。
論文 参考訳(メタデータ) (2023-10-08T15:35:00Z) - Advancements in Optimization: Adaptive Differential Evolution with
Diversification Strategy [0.0]
この研究は2次元空間において単目的最適化を採用し、複数の反復で各ベンチマーク関数上でADEDSを実行する。
ADEDSは、多くの局所最適化、プレート型、谷型、伸縮型、ノイズの多い機能を含む様々な最適化課題において、標準Dより一貫して優れている。
論文 参考訳(メタデータ) (2023-10-02T10:05:41Z) - Adaptive REST API Testing with Reinforcement Learning [54.68542517176757]
現在のテストツールは効率的な探索機構がなく、全ての操作とパラメータを等しく扱う。
現在のツールは、仕様にレスポンススキーマがない場合や、変種を示す場合に苦労している。
我々は、強化学習を取り入れた適応型REST APIテスト手法を提案し、探索中の操作を優先順位付けする。
論文 参考訳(メタデータ) (2023-09-08T20:27:05Z) - Robust Prompt Optimization for Large Language Models Against
Distribution Shifts [80.6757997074956]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて重要な能力を示している。
本稿では,LLMの分散シフトに対するロバストな最適化法を提案する。
この問題は、ラベル付けされたソースグループに最適化されたプロンプトを同時にラベル付けされていないターゲットグループに一般化する必要がある。
論文 参考訳(メタデータ) (2023-05-23T11:30:43Z) - DeepHive: A multi-agent reinforcement learning approach for automated
discovery of swarm-based optimization policies [0.0]
Swarm内の各エージェントの状態は、設計空間内の現在の位置と関数値として定義される。
提案手法は,様々なベンチマーク最適化関数を用いて検証し,他のグローバル最適化手法との比較を行った。
論文 参考訳(メタデータ) (2023-03-29T18:08:08Z) - An Empirical Evaluation of Zeroth-Order Optimization Methods on
AI-driven Molecule Optimization [78.36413169647408]
分子目的を最適化するための様々なZO最適化手法の有効性について検討する。
ZO符号に基づく勾配降下(ZO-signGD)の利点を示す。
本稿では,Guurcamol スイートから広く使用されているベンチマークタスクに対して,ZO 最適化手法の有効性を示す。
論文 参考訳(メタデータ) (2022-10-27T01:58:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。