論文の概要: Green or Fast? Learning to Balance Cold Starts and Idle Carbon in Serverless Computing
- arxiv url: http://arxiv.org/abs/2602.23935v1
- Date: Fri, 27 Feb 2026 11:35:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 19:48:24.392852
- Title: Green or Fast? Learning to Balance Cold Starts and Idle Carbon in Serverless Computing
- Title(参考訳): グリーンかファストか - サーバレスコンピューティングにおけるコールドスタートとアイドルカーボンのバランスを学ぶ
- Authors: Bowen Sun, Christos D. Antonopoulos, Evgenia Smirni, Bin Ren, Nikolaos Bellas, Spyros Lalis,
- Abstract要約: サーバレスコンピューティングは、クラウドデプロイメントを単純化するが、サービスレイテンシと二酸化炭素排出量を管理する上での新たな課題を導入している。
LACE-RLは遅延認識と炭素効率管理のためのフレームワークである。
LACE-RLは、Huaweiの静的ポリシーと比較して、コールドスタートを51.69%減らし、アイドル型二酸化炭素排出量を77.08%減らしている。
- 参考スコア(独自算出の注目度): 12.749575649611643
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Serverless computing simplifies cloud deployment but introduces new challenges in managing service latency and carbon emissions. Reducing cold-start latency requires retaining warm function instances, while minimizing carbon emissions favors reclaiming idle resources. This balance is further complicated by time-varying grid carbon intensity and varying workload patterns, under which static keep-alive policies are inefficient. We present LACE-RL, a latency-aware and carbon-efficient management framework that formulates serverless pod retention as a sequential decision problem. LACE-RL uses deep reinforcement learning to dynamically tune keep-alive durations, jointly modeling cold-start probability, function-specific latency costs, and real-time carbon intensity. Using the Huawei Public Cloud Trace, we show that LACE-RL reduces cold starts by 51.69% and idle keep-alive carbon emissions by 77.08% compared to Huawei's static policy, while achieving better latency-carbon trade-offs than state-of-the-art heuristic and single-objective baselines, approaching Oracle performance.
- Abstract(参考訳): サーバレスコンピューティングは、クラウドデプロイメントを単純化するが、サービスレイテンシと二酸化炭素排出量を管理する上での新たな課題を導入している。
コールドスタート遅延の低減には温暖化機能インスタンスの維持が必要だが、二酸化炭素排出量の最小化はアイドル資源の回収を好んでいる。
このバランスは、時間変化のグリッド炭素強度と、静的な保温ポリシーが非効率である様々なワークロードパターンによってさらに複雑である。
LACE-RLは、サーバーレスポッドの保持を逐次決定問題として定式化する、レイテンシ対応で炭素効率の高い管理フレームワークである。
LACE-RLは深層強化学習を用いて、保温期間を動的に調整し、コールドスタート確率、機能固有の遅延コスト、リアルタイム炭素強度を共同でモデル化する。
Huawei Public Cloud Traceを用いて、LACE-RLは、Huaweiの静的ポリシーと比較して、コールドスタートを51.69%減らし、アイドル型炭素排出量を77.08%減らし、最先端のヒューリスティックで単一目的のベースラインよりも優れた遅延炭素トレードオフを実現し、Oracleのパフォーマンスに近づいた。
関連論文リスト
- CSGO: Generalized Optimization for Cold Start in Wireless Collaborative Edge LLM Systems [62.24576366776727]
本稿では,全体の推論遅延を最小限に抑えるために,遅延を考慮したスケジューリングフレームワークを提案する。
提案手法は,ベースライン戦略と比較して,コールドスタート遅延を著しく低減することを示す。
論文 参考訳(メタデータ) (2025-08-15T07:49:22Z) - Diffusion-Modeled Reinforcement Learning for Carbon and Risk-Aware Microgrid Optimization [48.70916202664808]
DiffCarl(ディフカール)は、マルチマイクログリッドシステムのインテリジェントな操作のための、拡散モデルによる炭素およびリスクを考慮した強化学習アルゴリズムである。
従来のアルゴリズムと最先端のDRLソリューションを2.3-30.1%削減した。
また、炭素を意識しない変種よりも28.7%低い炭素排出量を達成し、性能の変動を減少させる。
論文 参考訳(メタデータ) (2025-07-22T03:27:07Z) - CarbonCall: Sustainability-Aware Function Calling for Large Language Models on Edge Devices [0.44784055850794474]
大規模言語モデル(LLM)は、エッジAIシステムでのリアルタイム関数呼び出しを可能にするが、計算オーバーヘッドが大幅に増加し、高消費電力と二酸化炭素排出量につながる。
持続可能な機能呼び出しフレームワークであるCarbonCallを導入し、動的ツールの選択、炭素認識の実行、量子化適応を統合した。
NVIDIA Jetson AGX Orinの実験によると、CarbonCallは炭素排出量を最大52%削減し、消費電力を30%削減し、実行時間を30%削減し、高い効率を維持している。
論文 参考訳(メタデータ) (2025-04-29T01:37:08Z) - ConServe: Fine-Grained GPU Harvesting for LLM Online and Offline Co-Serving [61.35068981176018]
ConServeは、高いスループットと強力なオンラインレイテンシ保証を実現する大規模言語モデル(LLM)サービスシステムである。
我々は,ConServeが平均2.2$times$高スループットを実現し,オンラインサービステールのレイテンシを最先端システムと比較して平均2.9$times$削減することを示した。
論文 参考訳(メタデータ) (2024-10-02T04:12:13Z) - Generative AI for Low-Carbon Artificial Intelligence of Things with Large Language Models [67.0243099823109]
ジェネレーティブAI(GAI)は、AIoT(Artificial Intelligence of Things)の二酸化炭素排出量を減らす大きな可能性を秘めている
本稿では, 炭素排出量削減のためのGAIの可能性について検討し, 低炭素AIoTのための新しいGAI対応ソリューションを提案する。
本稿では,Large Language Model (LLM) を利用したCO_2排出最適化フレームワークを提案し,このフレームワークにより,プラグ可能なLLMとRetrieval Augmented Generation (RAG) モジュールを設計する。
論文 参考訳(メタデータ) (2024-04-28T05:46:28Z) - LACS: Learning-Augmented Algorithms for Carbon-Aware Resource Scaling with Uncertain Demand [1.423958951481749]
本稿では,未知の作業時間(OCSU)を用いたオンラインCO_2-Awareリソーススケーリング問題について検討する。
我々は,論理的に堅牢な学習拡張アルゴリズムであるLACSを提案し,OCSUを解く。
LACSは、納期を意識した炭素に依存しない作業と比較して、炭素フットプリントの32%の削減を実現している。
論文 参考訳(メタデータ) (2024-03-29T04:54:22Z) - Carbon Footprint Reduction for Sustainable Data Centers in Real-Time [2.794742330785396]
本稿では, 炭素フットプリント削減, エネルギー消費, エネルギーコストの目的のために, データセンターを最適化するための多エージェント強化学習(MARL)フレームワークを提案する。
その結果,DC-CFR MARLエージェントは実世界の動的気象条件やグリッド炭素強度条件下での様々な場所での冷却,負荷シフト,エネルギー貯蔵の最適化において,複雑な相互依存性を効果的に解決した。
論文 参考訳(メタデータ) (2024-03-21T02:59:56Z) - On the Limitations of Carbon-Aware Temporal and Spatial Workload
Shifting in the Cloud [0.6642611154902529]
当社は、クラウドワークロードにおける炭素認識スケジューリングのメリットと限界を理解するために、詳細なデータ駆動分析を実施しています。
この結果から, 限られた作業量シフトは二酸化炭素排出量を減少させるが, 現実的な削減は理想とは程遠いことが示唆された。
論文 参考訳(メタデータ) (2023-06-10T18:39:49Z) - Implementing Reinforcement Learning Datacenter Congestion Control in NVIDIA NICs [64.26714148634228]
渋滞制御 (CC) アルゴリズムの設計は非常に困難になる。
現在、計算能力に制限があるため、ネットワークデバイスにAIモデルをデプロイすることはできない。
我々は,近年の強化学習CCアルゴリズムに基づく計算軽度解を構築した。
論文 参考訳(メタデータ) (2022-07-05T20:42:24Z) - Measuring the Carbon Intensity of AI in Cloud Instances [91.28501520271972]
我々は,ソフトウェアの炭素強度を測定するための枠組みを提供し,運転中の炭素排出量を測定することを提案する。
私たちは、Microsoft Azureクラウドコンピューティングプラットフォームにおける排出削減のための一連のアプローチを評価します。
論文 参考訳(メタデータ) (2022-06-10T17:04:04Z) - HUNTER: AI based Holistic Resource Management for Sustainable Cloud
Computing [26.48962351761643]
我々は,HUNTERと呼ばれる持続可能なクラウドコンピューティングのための人工知能(AI)に基づく総合的資源管理手法を提案する。
提案モデルでは,多目的スケジューリング問題として,データセンターのエネルギー効率を最適化する目標を定式化している。
シミュレーションおよび物理雲環境の実験により、HUNTERはエネルギー消費、SLA違反、スケジューリング時間、コスト、温度を最大12、35、43、54、3%で上回った。
論文 参考訳(メタデータ) (2021-10-11T18:11:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。