論文の概要: Sustainable AIGC Workload Scheduling of Geo-Distributed Data Centers: A
Multi-Agent Reinforcement Learning Approach
- arxiv url: http://arxiv.org/abs/2304.07948v1
- Date: Mon, 17 Apr 2023 02:12:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 16:32:04.761110
- Title: Sustainable AIGC Workload Scheduling of Geo-Distributed Data Centers: A
Multi-Agent Reinforcement Learning Approach
- Title(参考訳): 地理的分散データセンターの持続可能なAIGCワークロードスケジューリング:マルチエージェント強化学習アプローチ
- Authors: Siyue Zhang, Minrui Xu, Wei Yang Bryan Lim, and Dusit Niyato
- Abstract要約: 生成的人工知能の最近の進歩は、機械学習トレーニングの需要が急増し、エネルギー消費の大幅な増加によるコスト負担と環境問題を引き起こしている。
地理的に分散したクラウドデータセンタ間でのトレーニングジョブのスケジューリングは、安価で低炭素エネルギーのコンピューティング能力の使用を最適化する機会を浮き彫りにする。
本研究では,実生活におけるワークロードパターン,エネルギー価格,炭素強度を組み込んだクラウドシステムと対話することで,マルチエージェント強化学習とアクタクリティカルな手法に基づく最適協調スケジューリング戦略の学習アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 48.18355658448509
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent breakthroughs in generative artificial intelligence have triggered a
surge in demand for machine learning training, which poses significant cost
burdens and environmental challenges due to its substantial energy consumption.
Scheduling training jobs among geographically distributed cloud data centers
unveils the opportunity to optimize the usage of computing capacity powered by
inexpensive and low-carbon energy and address the issue of workload imbalance.
To tackle the challenge of multi-objective scheduling, i.e., maximizing GPU
utilization while reducing operational costs, we propose an algorithm based on
multi-agent reinforcement learning and actor-critic methods to learn the
optimal collaborative scheduling strategy through interacting with a cloud
system built with real-life workload patterns, energy prices, and carbon
intensities. Compared with other algorithms, our proposed method improves the
system utility by up to 28.6% attributable to higher GPU utilization, lower
energy cost, and less carbon emission.
- Abstract(参考訳): 生成的人工知能の最近の進歩は、機械学習トレーニングの需要が急増し、エネルギー消費の大幅な増加によるコスト負担と環境問題を引き起こしている。
地理的に分散したクラウドデータセンター間のスケジューリングトレーニングジョブは、安価で低炭素エネルギーによるコンピューティング能力の使用を最適化する機会を公開し、ワークロードの不均衡の問題に対処する。
運用コストを低減しつつgpu利用を最大化するマルチ目的スケジューリングの課題に取り組むために,実生活のワークロードパターン,エネルギー価格,カーボンインテンシティを組み込んだクラウドシステムとのインタラクションを通じて,最適な協調スケジューリング戦略を学習するためのマルチエージェント強化学習とアクター-クリティック手法に基づくアルゴリズムを提案する。
他のアルゴリズムと比較して、提案手法は、GPU利用率の向上、エネルギーコストの低減、二酸化炭素排出量の削減に起因するシステム利用率を最大28.6%向上させる。
関連論文リスト
- Reinforcement Learning for Adaptive Resource Scheduling in Complex System Environments [8.315191578007857]
そこで本研究では,Q-ラーニングに基づく新しいコンピュータシステムの性能最適化と適応型ワークロード管理スケジューリングアルゴリズムを提案する。
対照的に、強化学習アルゴリズムであるQラーニングは、システムの状態変化から継続的に学習し、動的スケジューリングとリソース最適化を可能にする。
この研究は、将来の大規模システムにおけるAI駆動適応スケジューリングの統合の基礎を提供し、システムのパフォーマンスを高め、運用コストを削減し、持続可能なエネルギー消費をサポートするスケーラブルでインテリジェントなソリューションを提供する。
論文 参考訳(メタデータ) (2024-11-08T05:58:09Z) - Game-Theoretic Deep Reinforcement Learning to Minimize Carbon Emissions and Energy Costs for AI Inference Workloads in Geo-Distributed Data Centers [3.3379026542599934]
この研究は、地理分散データセンターにおけるAI推論ワークロードの分散を最適化するために、ゲーム理論(GT)と深層強化学習(DRL)を組み合わせたユニークなアプローチを導入する。
提案手法は,非協調型ゲーム理論の原理をDRLフレームワークに統合し,データセンターが作業負荷配分に関するインテリジェントな決定を行えるようにする。
論文 参考訳(メタデータ) (2024-04-01T20:13:28Z) - DClEVerNet: Deep Combinatorial Learning for Efficient EV Charging
Scheduling in Large-scale Networked Facilities [5.78463306498655]
電気自動車(EV)は配電ネットワークを著しくストレスし、性能を劣化させ、安定性を損なう可能性がある。
現代の電力網は、EV充電スケジューリングをスケーラブルで効率的な方法で最適化できる、コーディネートまたはスマートな充電戦略を必要とする。
ネットワークの利用可能な電力容量とステーションの占有限度を考慮しつつ、EV利用者の総福祉利益を最大化する時間結合二元最適化問題を定式化する。
論文 参考訳(メタデータ) (2023-05-18T14:03:47Z) - Actively Learning Costly Reward Functions for Reinforcement Learning [56.34005280792013]
複雑な実世界の環境でエージェントを訓練することは、桁違いに高速であることを示す。
強化学習の手法を新しい領域に適用することにより、興味深く非自明な解を見つけることができることを示す。
論文 参考訳(メタデータ) (2022-11-23T19:17:20Z) - Measuring the Carbon Intensity of AI in Cloud Instances [91.28501520271972]
我々は,ソフトウェアの炭素強度を測定するための枠組みを提供し,運転中の炭素排出量を測定することを提案する。
私たちは、Microsoft Azureクラウドコンピューティングプラットフォームにおける排出削減のための一連のアプローチを評価します。
論文 参考訳(メタデータ) (2022-06-10T17:04:04Z) - HUNTER: AI based Holistic Resource Management for Sustainable Cloud
Computing [26.48962351761643]
我々は,HUNTERと呼ばれる持続可能なクラウドコンピューティングのための人工知能(AI)に基づく総合的資源管理手法を提案する。
提案モデルでは,多目的スケジューリング問題として,データセンターのエネルギー効率を最適化する目標を定式化している。
シミュレーションおよび物理雲環境の実験により、HUNTERはエネルギー消費、SLA違反、スケジューリング時間、コスト、温度を最大12、35、43、54、3%で上回った。
論文 参考訳(メタデータ) (2021-10-11T18:11:26Z) - Energy-Efficient Multi-Orchestrator Mobile Edge Learning [54.28419430315478]
Mobile Edge Learning(MEL)は、エッジデバイス上で機械学習(ML)モデルの分散トレーニングを特徴とする、協調学習パラダイムである。
MELでは、異なるデータセットで複数の学習タスクが共存する可能性がある。
本稿では, エネルギー消費, 精度, 解複雑性のトレードオフを容易にする軽量なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-02T07:37:10Z) - ANDREAS: Artificial intelligence traiNing scheDuler foR accElerAted
resource clusterS [1.798617052102518]
パフォーマンスを最大化し、データセンターの運用コストを最小限に抑える高度なスケジューリングソリューションであるANDREASを提案します。
実験の結果,第一原理法では平均で30~62%のコスト削減が可能であった。
論文 参考訳(メタデータ) (2021-05-11T14:36:19Z) - Demand-Side Scheduling Based on Multi-Agent Deep Actor-Critic Learning
for Smart Grids [56.35173057183362]
家庭用家電をネットでスケジュールできるスマートメーターが各家庭に備わっている需要側エネルギー管理の問題点を考察する。
目標は、リアルタイムの料金体系の下で全体のコストを最小化することです。
マルコフゲームとしてスマートグリッド環境の定式化を提案する。
論文 参考訳(メタデータ) (2020-05-05T07:32:40Z) - Risk-Aware Energy Scheduling for Edge Computing with Microgrid: A
Multi-Agent Deep Reinforcement Learning Approach [82.6692222294594]
マイクログリッドを用いたMECネットワークにおけるリスク対応エネルギースケジューリング問題について検討する。
ニューラルネットワークを用いたマルチエージェントディープ強化学習(MADRL)に基づくアドバンテージアクター・クリティック(A3C)アルゴリズムを適用し,その解を導出する。
論文 参考訳(メタデータ) (2020-02-21T02:14:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。