論文の概要: An Advanced Reinforcement Learning Framework for Online Scheduling of Deferrable Workloads in Cloud Computing
- arxiv url: http://arxiv.org/abs/2406.01047v1
- Date: Mon, 3 Jun 2024 06:55:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-06 02:08:05.604788
- Title: An Advanced Reinforcement Learning Framework for Online Scheduling of Deferrable Workloads in Cloud Computing
- Title(参考訳): クラウドコンピューティングにおけるデシリアブルワークロードのオンラインスケジューリングのための高度な強化学習フレームワーク
- Authors: Hang Dong, Liwen Zhu, Zhao Shan, Bo Qiao, Fangkai Yang, Si Qin, Chuan Luo, Qingwei Lin, Yuwen Yang, Gurpreet Virdi, Saravan Rajmohan, Dongmei Zhang, Thomas Moscibroda,
- Abstract要約: クラウド上でのdeferrableジョブのためのtextitOnline Scheduling(OSDEC)と呼ばれるオンラインのdeferrableジョブスケジューリング手法を提案する。
提案手法は,高資源利用率を維持しつつ,デプロイメントスケジュールを適切に計画し,ユーザの待ち時間を短縮することができる。
- 参考スコア(独自算出の注目度): 37.457951933256055
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Efficient resource utilization and perfect user experience usually conflict with each other in cloud computing platforms. Great efforts have been invested in increasing resource utilization but trying not to affect users' experience for cloud computing platforms. In order to better utilize the remaining pieces of computing resources spread over the whole platform, deferrable jobs are provided with a discounted price to users. For this type of deferrable jobs, users are allowed to submit jobs that will run for a specific uninterrupted duration in a flexible range of time in the future with a great discount. With these deferrable jobs to be scheduled under the remaining capacity after deploying those on-demand jobs, it remains a challenge to achieve high resource utilization and meanwhile shorten the waiting time for users as much as possible in an online manner. In this paper, we propose an online deferrable job scheduling method called \textit{Online Scheduling for DEferrable jobs in Cloud} (\OSDEC{}), where a deep reinforcement learning model is adopted to learn the scheduling policy, and several auxiliary tasks are utilized to provide better state representations and improve the performance of the model. With the integrated reinforcement learning framework, the proposed method can well plan the deployment schedule and achieve a short waiting time for users while maintaining a high resource utilization for the platform. The proposed method is validated on a public dataset and shows superior performance.
- Abstract(参考訳): 効率的なリソース利用と完全なユーザエクスペリエンスは通常、クラウドコンピューティングプラットフォームで互いに衝突します。
リソース利用の増加には多大な努力が注がれているが、クラウドコンピューティングプラットフォームのユーザエクスペリエンスに影響を与えないように努力している。
プラットフォーム全体に分散した残りのコンピューティングリソースをより有効活用するために、遅延可能なジョブには、ユーザに割引価格が提供される。
この種の遅延可能なジョブに対しては、ユーザーは将来、柔軟な時間帯で特定の中断のない期間に、大きな割引で実行されるジョブを提出することができる。
これらの遅延可能なジョブは、オンデマンドジョブをデプロイした後、残りのキャパシティの下でスケジュールされるため、高いリソース利用を達成するとともに、オンラインでの待ち時間を可能な限り短縮することが課題である。
本稿では,クラウド上でのDeferrableJobsのオンラインスケジューリング手法である‘textit{Online Scheduling for DeferrableJobs in Cloud’ (\OSDEC{})を提案する。
統合強化学習フレームワークにより,提案手法は,高資源利用を維持しつつ,デプロイメントスケジュールを適切に計画し,ユーザの待ち時間を短縮することができる。
提案手法は公開データセット上で検証され,優れた性能を示す。
関連論文リスト
- Efficient Resource Scheduling for Distributed Infrastructures Using
Negotiation Capabilities [0.46040036610482665]
ファジィ論理に基づく資源スケジューリングのためのエージェントベースの自動ネゴシエーションシステムを提案する。
提案手法は,1対1の自己交渉処理を完了し,プロバイダとクライアントに対して最適なオファーを生成する。
我々は、ファジィネゴシエーションシステムを置き換えるために機械学習モデルをトレーニングし、処理速度を向上する。
論文 参考訳(メタデータ) (2024-02-10T12:26:20Z) - Dynamic Scheduling for Federated Edge Learning with Streaming Data [56.91063444859008]
我々は,長期的エネルギー制約のある分散エッジデバイスにおいて,トレーニングデータを時間とともにランダムに生成するフェデレーションエッジ学習(FEEL)システムを検討する。
限られた通信リソースとレイテンシ要件のため、各イテレーションでローカルトレーニングプロセスに参加するのはデバイスのサブセットのみである。
論文 参考訳(メタデータ) (2023-05-02T07:41:16Z) - RAPID: Enabling Fast Online Policy Learning in Dynamic Public Cloud
Environments [7.825552412435501]
本研究では,動的運用環境における資源割当ポリシ学習の高速化を目的とした新しいフレームワークを提案する。
我々のフレームワークは、従来の最先端の時間と比較して、数分で安定したリソース割り当てポリシーを学習できることを示します。
論文 参考訳(メタデータ) (2023-04-10T18:04:39Z) - Actively Learning Costly Reward Functions for Reinforcement Learning [56.34005280792013]
複雑な実世界の環境でエージェントを訓練することは、桁違いに高速であることを示す。
強化学習の手法を新しい領域に適用することにより、興味深く非自明な解を見つけることができることを示す。
論文 参考訳(メタデータ) (2022-11-23T19:17:20Z) - Personalized Execution Time Optimization for the Scheduled Jobs [10.605976394614904]
ベストタイム選択において、ポイントワイズ・ツー・ランクのアプローチと「ベストタイムポリシー」を適用する方法について説明する。
本研究は,大規模産業におけるスケジュールジョブの実行時間最適化問題に対する,MLベースのマルチテナントソリューションとしては初めてのものである。
論文 参考訳(メタデータ) (2022-03-11T18:35:20Z) - MCDS: AI Augmented Workflow Scheduling in Mobile Edge Cloud Computing
Systems [12.215537834860699]
近年,エッジコンピューティングプラットフォームの低応答時間を利用してアプリケーション品質・オブ・サービス(QoS)を最適化するスケジューリング手法が提案されている。
本稿では,Deep Surrogate Models を用いたモンテカルロ学習を用いて,モバイルエッジクラウドコンピューティングシステムにおけるワークフローアプリケーションを効率的にスケジューリングする手法を提案する。
論文 参考訳(メタデータ) (2021-12-14T10:00:01Z) - MUSBO: Model-based Uncertainty Regularized and Sample Efficient Batch
Optimization for Deployment Constrained Reinforcement Learning [108.79676336281211]
データ収集とオンライン学習のための新しいポリシーの継続的展開はコスト非効率か非現実的かのどちらかである。
モデルベース不確実性正規化とサンプル効率的なバッチ最適化という新しいアルゴリズム学習フレームワークを提案する。
本フレームワークは,各デプロイメントの新規で高品質なサンプルを発見し,効率的なデータ収集を実現する。
論文 参考訳(メタデータ) (2021-02-23T01:30:55Z) - A Predictive Autoscaler for Elastic Batch Jobs [8.354712625979776]
Deep Learning、HPC、Sparkといった大規模なバッチジョブは、従来のオンラインサービスよりもはるかに多くの計算リソースとコストを必要とします。
顧客とオーバプロビジョンインスタンスに対して,柔軟なインターフェースを提供するための予測オートスケーラを提案する。
論文 参考訳(メタデータ) (2020-10-10T17:35:55Z) - Pollux: Co-adaptive Cluster Scheduling for Goodput-Optimized Deep
Learning [61.29990368322931]
Polluxは、相互依存要因を適応的に最適化することで、ディープラーニング(DL)クラスタのスケジューリング性能を改善する。
Polluxは、最先端のDLスケジューラと比較して、平均的なジョブ完了時間を37-50%削減する。
論文 参考訳(メタデータ) (2020-08-27T16:56:48Z) - AWAC: Accelerating Online Reinforcement Learning with Offline Datasets [84.94748183816547]
提案手法は,従来の実演データとオンライン体験を組み合わせることで,スキルの素早い学習を可能にする。
以上の結果から,事前データを組み込むことで,ロボット工学を実践的な時間スケールまで学習するのに要する時間を短縮できることが示唆された。
論文 参考訳(メタデータ) (2020-06-16T17:54:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。