論文の概要: Combination of Convolutional Neural Network and Gated Recurrent Unit for
Energy Aware Resource Allocation
- arxiv url: http://arxiv.org/abs/2106.12178v1
- Date: Wed, 23 Jun 2021 05:57:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-24 15:08:23.590913
- Title: Combination of Convolutional Neural Network and Gated Recurrent Unit for
Energy Aware Resource Allocation
- Title(参考訳): エネルギーを考慮した資源配分のための畳み込みニューラルネットワークとGated Recurrent Unitの組み合わせ
- Authors: Zeinab Khodaverdian, Hossein Sadr, Seyed Ahmad Edalatpanah and Mojdeh
Nazari Solimandarabi
- Abstract要約: クラウドコンピューティングサービスモデルは、急速に成長し、非効率なリソース使用は、クラウドデータセンターにおける高エネルギー消費の最大の原因の1つです。
仮想マシン(VM)のライブマイグレーションと,少数の物理マシン(PM)への統合により,エネルギー消費削減を目的としたクラウドデータセンターの資源配分を行った。
この問題を解決するために、ユーザリクエストのパターンに従って、レイテンシに対するセンシティブなクラスや非センシティブなクラスに分類することが可能で、その後、マイグレーション用に適切なVMを選択することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cloud computing service models have experienced rapid growth and inefficient
resource usage is known as one of the greatest causes of high energy
consumption in cloud data centers. Resource allocation in cloud data centers
aiming to reduce energy consumption has been conducted using live migration of
Virtual Machines (VMs) and their consolidation into the small number of
Physical Machines (PMs). However, the selection of the appropriate VM for
migration is an important challenge. To solve this issue, VMs can be classified
according to the pattern of user requests into sensitive or insensitive classes
to latency, and thereafter suitable VMs can be selected for migration. In this
paper, the combination of Convolution Neural Network (CNN) and Gated Recurrent
Unit (GRU) is utilized for the classification of VMs in the Microsoft Azure
dataset. Due to the fact the majority of VMs in this dataset are labeled as
insensitive to latency, migration of more VMs in this group not only reduces
energy consumption but also decreases the violation of Service Level Agreements
(SLA). Based on the empirical results, the proposed model obtained an accuracy
of 95.18which clearly demonstrates the superiority of our proposed model
compared to other existing models.
- Abstract(参考訳): クラウドコンピューティングサービスモデルは急速に成長し、非効率なリソース利用は、クラウドデータセンターにおける高エネルギー消費の最大の原因の1つとして知られている。
仮想マシン (VM) のライブマイグレーションと, 少数の物理マシン (PM) への統合により, エネルギー消費削減を目的としたクラウドデータセンターの資源配分を行った。
しかし、移行に適したvmの選択は重要な課題である。
この問題を解決するため、ユーザリクエストのパターンに従ってVMを機密性のある、あるいは非機密なクラスに分類し、その後、マイグレーション用に適切なVMを選択することができる。
本稿では、Microsoft Azureデータセット内のVMの分類に、畳み込みニューラルネットワーク(CNN)とGRU(Gated Recurrent Unit)の組み合わせを利用する。
このデータセットのほとんどのVMは遅延に敏感であるとラベル付けされているため、このグループのVMへの移行はエネルギー消費を減らすだけでなく、サービスレベルアグリーメント(SLA)に違反している。
実験結果に基づき,提案モデルでは,既存モデルと比較して,提案モデルが優れていることを示す95.18の精度を得た。
関連論文リスト
- Towards Robust and Efficient Cloud-Edge Elastic Model Adaptation via
Selective Entropy Distillation [60.17626806243389]
Cloud-Edge Elastic Model Adaptation (CEMA)パラダイムを確立し、エッジモデルが前方伝播のみを実行するようにします。
CEMAでは,通信負担を軽減するため,不要なサンプルをクラウドにアップロードすることを避けるための2つの基準を考案した。
論文 参考訳(メタデータ) (2024-02-27T08:47:19Z) - The VampPrior Mixture Model [1.9943074894669663]
深層潜伏変数モデル(DLVM)のクラスタ化には、a-prioriのクラスタ数を定義する必要がある。
We adapt the VampPrior process into a Dirichlet Mixture Model, result to the VampPrior Mixture Model (VMM, a novel for DLVMs。
本稿では,変分推論と経験的ベイズを交互に交互に交互に行う推論手法を提案する。
論文 参考訳(メタデータ) (2024-02-06T21:18:34Z) - SpotServe: Serving Generative Large Language Models on Preemptible
Instances [64.18638174004151]
SpotServeは、プリエンプティブルインスタンスにシステムを提供する最初の分散大規模言語モデルである。
SpotServeは、既存のLLMサービスシステムと比較して、P99テールのレイテンシを2.4~9.1倍削減できることを示す。
また、SpotServeはプリエンプティブインスタンスの価格優位性を利用して、オンデマンドインスタンスのみを使用する場合と比較して54%の金銭的コストを節約できることも示しています。
論文 参考訳(メタデータ) (2023-11-27T06:31:17Z) - POLCA: Power Oversubscription in LLM Cloud Providers [0.8299593158757622]
大規模言語モデル (LLMs) はますます強力になりつつある。
LLMクラスタに電力をオーバーサブスクライブする大きな機会があることが示される。
我々は、堅牢で信頼性があり、GPUクラスタに容易にデプロイ可能な、パワーオーバーサブスクライブのためのフレームワークであるPOLCAを提案する。
論文 参考訳(メタデータ) (2023-08-24T16:32:34Z) - Adaptive Federated Pruning in Hierarchical Wireless Networks [69.6417645730093]
Federated Learning(FL)は、サーバがプライベートデータセットにアクセスすることなく、複数のデバイスによって更新されたモデルを集約する、プライバシ保護の分散学習フレームワークである。
本稿では,無線ネットワークにおけるHFLのモデルプルーニングを導入し,ニューラルネットワークの規模を小さくする。
提案するHFLは,モデルプルーニングを伴わないHFLと比較して学習精度が良く,通信コストが約50%削減できることを示す。
論文 参考訳(メタデータ) (2023-05-15T22:04:49Z) - CILP: Co-simulation based Imitation Learner for Dynamic Resource
Provisioning in Cloud Computing Environments [13.864161788250856]
レイテンシクリティカルなタスクの主な課題は、積極的にプロビジョニングする将来のワークロード要求を予測することだ。
既存のAIベースのソリューションは、プロビジョニングのオーバーヘッド、異種VMコスト、クラウドシステムの品質(QoS)など、すべての重要な側面を公平に考慮しない傾向があります。
予測と最適化の2つのサブプロブレムとしてVMプロビジョニング問題を定式化するCILPと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-02-11T09:15:34Z) - IAD: Indirect Anomalous VMMs Detection in the Cloud-based Environment [0.6387263468033965]
異常VMM検出は、ユーザがVMMにアクセスできないため、クラウド環境での課題である。
本稿では,IAD: Indirect Anomalous VMMs Detectionという,機械学習に基づく新しいアルゴリズムを提案する。
提案したIADアルゴリズムは、平均F1スコアが4つのデータセットで平均83.7%であり、他のアルゴリズムよりも平均F1スコアが11%高いことが判明した。
論文 参考訳(メタデータ) (2021-11-22T08:48:47Z) - Energy-Efficient Model Compression and Splitting for Collaborative
Inference Over Time-Varying Channels [52.60092598312894]
本稿では,エッジノードとリモートノード間のモデル圧縮と時間変化モデル分割を利用して,エッジデバイスにおける総エネルギーコストを削減する手法を提案する。
提案手法は, 検討されたベースラインと比較して, エネルギー消費が最小限であり, 排出コストが$CO$となる。
論文 参考訳(メタデータ) (2021-06-02T07:36:27Z) - A Machine Learning-Based Migration Strategy for Virtual Network Function
Instances [3.7783523378336104]
我々は、VNFインスタンスのマイグレーション戦略であるVNNIM(VNF Neural Network for Instance Migration)を開発した。
VNNIMは、移行後のサーバを99.07%の精度で予測するのに非常に効果的である。
しかし、VNNIMの最大の利点は、ランタイム分析によって強調される実行時の効率である。
論文 参考訳(メタデータ) (2020-06-15T15:03:27Z) - Communication Efficient Federated Learning with Energy Awareness over
Wireless Networks [51.645564534597625]
フェデレートラーニング(FL)では、パラメータサーバとモバイルデバイスが無線リンク上でトレーニングパラメータを共有する。
我々は、勾配の符号のみを交換するSignSGDという考え方を採用する。
2つの最適化問題を定式化し、学習性能を最適化する。
FLでは非常に不均一な方法でモバイルデバイスに分散される可能性があることを考慮し,手話に基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-04-15T21:25:13Z) - On Coresets for Support Vector Machines [61.928187390362176]
coresetは、元のデータポイントの小さな、代表的なサブセットである。
我々は,本アルゴリズムを用いて,既製のSVMソルバをストリーミング,分散,動的データ設定に適用可能であることを示す。
論文 参考訳(メタデータ) (2020-02-15T23:25:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。