論文の概要: Combination of Convolutional Neural Network and Gated Recurrent Unit for
Energy Aware Resource Allocation
- arxiv url: http://arxiv.org/abs/2106.12178v1
- Date: Wed, 23 Jun 2021 05:57:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-24 15:08:23.590913
- Title: Combination of Convolutional Neural Network and Gated Recurrent Unit for
Energy Aware Resource Allocation
- Title(参考訳): エネルギーを考慮した資源配分のための畳み込みニューラルネットワークとGated Recurrent Unitの組み合わせ
- Authors: Zeinab Khodaverdian, Hossein Sadr, Seyed Ahmad Edalatpanah and Mojdeh
Nazari Solimandarabi
- Abstract要約: クラウドコンピューティングサービスモデルは、急速に成長し、非効率なリソース使用は、クラウドデータセンターにおける高エネルギー消費の最大の原因の1つです。
仮想マシン(VM)のライブマイグレーションと,少数の物理マシン(PM)への統合により,エネルギー消費削減を目的としたクラウドデータセンターの資源配分を行った。
この問題を解決するために、ユーザリクエストのパターンに従って、レイテンシに対するセンシティブなクラスや非センシティブなクラスに分類することが可能で、その後、マイグレーション用に適切なVMを選択することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cloud computing service models have experienced rapid growth and inefficient
resource usage is known as one of the greatest causes of high energy
consumption in cloud data centers. Resource allocation in cloud data centers
aiming to reduce energy consumption has been conducted using live migration of
Virtual Machines (VMs) and their consolidation into the small number of
Physical Machines (PMs). However, the selection of the appropriate VM for
migration is an important challenge. To solve this issue, VMs can be classified
according to the pattern of user requests into sensitive or insensitive classes
to latency, and thereafter suitable VMs can be selected for migration. In this
paper, the combination of Convolution Neural Network (CNN) and Gated Recurrent
Unit (GRU) is utilized for the classification of VMs in the Microsoft Azure
dataset. Due to the fact the majority of VMs in this dataset are labeled as
insensitive to latency, migration of more VMs in this group not only reduces
energy consumption but also decreases the violation of Service Level Agreements
(SLA). Based on the empirical results, the proposed model obtained an accuracy
of 95.18which clearly demonstrates the superiority of our proposed model
compared to other existing models.
- Abstract(参考訳): クラウドコンピューティングサービスモデルは急速に成長し、非効率なリソース利用は、クラウドデータセンターにおける高エネルギー消費の最大の原因の1つとして知られている。
仮想マシン (VM) のライブマイグレーションと, 少数の物理マシン (PM) への統合により, エネルギー消費削減を目的としたクラウドデータセンターの資源配分を行った。
しかし、移行に適したvmの選択は重要な課題である。
この問題を解決するため、ユーザリクエストのパターンに従ってVMを機密性のある、あるいは非機密なクラスに分類し、その後、マイグレーション用に適切なVMを選択することができる。
本稿では、Microsoft Azureデータセット内のVMの分類に、畳み込みニューラルネットワーク(CNN)とGRU(Gated Recurrent Unit)の組み合わせを利用する。
このデータセットのほとんどのVMは遅延に敏感であるとラベル付けされているため、このグループのVMへの移行はエネルギー消費を減らすだけでなく、サービスレベルアグリーメント(SLA)に違反している。
実験結果に基づき,提案モデルでは,既存モデルと比較して,提案モデルが優れていることを示す95.18の精度を得た。
関連論文リスト
- Enhancing Robustness and Efficiency of Least Square Twin SVM via Granular Computing [0.2999888908665658]
機械学習の分野では、最小二乗サポートベクターマシン(LSTSVM)が最先端モデルの1つとして際立っている。
LSTSVMはノイズやインバージョンに対する感受性に悩まされており、リサンプリングの原則と不安定さを見落としている。
そこで我々は,従来のデータポイントの代わりに粒状球を用いて学習した,頑健な粒状球 LSTSVM (GBLSTSVM) を提案する。
論文 参考訳(メタデータ) (2024-10-22T18:13:01Z) - Ditto: Elastic Confidential VMs with Secure and Dynamic CPU Scaling [35.971391128345125]
Elastic CVM"とWorker vCPU設計は、より柔軟で費用対効果の高い機密計算環境を実現するための道を開いた。
Elastic CVM"とWorker vCPUの設計は、クラウドリソースの利用を最適化するだけでなく、より柔軟で費用対効果の高い機密計算環境の道を開く。
論文 参考訳(メタデータ) (2024-09-23T20:52:10Z) - Hybrid Heterogeneous Clusters Can Lower the Energy Consumption of LLM Inference Workloads [0.2389598109913753]
大規模言語モデル(LLM)の訓練と使用には大量のエネルギーが必要である。
本稿では, LLM を運用するデータセンターにおけるエネルギー消費削減の課題に対処する。
本稿では,コストベースのスケジューリングフレームワークを用いて,ハードウェアアクセラレータ間でタスクを動的に割り当てるハイブリッドデータセンターモデルを提案する。
論文 参考訳(メタデータ) (2024-04-25T11:24:08Z) - HyperVQ: MLR-based Vector Quantization in Hyperbolic Space [56.4245885674567]
ベクトル量子化(HyperVQ)における双曲空間の利用について検討する。
本稿では,高VQが識別タスクにおいてVQを上回り,高度に絡み合った潜在空間を学習しながら,再建作業や生成作業において相容れない性能を発揮することを示す。
論文 参考訳(メタデータ) (2024-03-18T03:17:08Z) - SpotServe: Serving Generative Large Language Models on Preemptible
Instances [64.18638174004151]
SpotServeは、プリエンプティブルインスタンスにシステムを提供する最初の分散大規模言語モデルである。
SpotServeは、既存のLLMサービスシステムと比較して、P99テールのレイテンシを2.4~9.1倍削減できることを示す。
また、SpotServeはプリエンプティブインスタンスの価格優位性を利用して、オンデマンドインスタンスのみを使用する場合と比較して54%の金銭的コストを節約できることも示しています。
論文 参考訳(メタデータ) (2023-11-27T06:31:17Z) - POLCA: Power Oversubscription in LLM Cloud Providers [0.8299593158757622]
大規模言語モデル (LLMs) はますます強力になりつつある。
LLMクラスタに電力をオーバーサブスクライブする大きな機会があることが示される。
我々は、堅牢で信頼性があり、GPUクラスタに容易にデプロイ可能な、パワーオーバーサブスクライブのためのフレームワークであるPOLCAを提案する。
論文 参考訳(メタデータ) (2023-08-24T16:32:34Z) - Adaptive Federated Pruning in Hierarchical Wireless Networks [69.6417645730093]
Federated Learning(FL)は、サーバがプライベートデータセットにアクセスすることなく、複数のデバイスによって更新されたモデルを集約する、プライバシ保護の分散学習フレームワークである。
本稿では,無線ネットワークにおけるHFLのモデルプルーニングを導入し,ニューラルネットワークの規模を小さくする。
提案するHFLは,モデルプルーニングを伴わないHFLと比較して学習精度が良く,通信コストが約50%削減できることを示す。
論文 参考訳(メタデータ) (2023-05-15T22:04:49Z) - Energy-Efficient Model Compression and Splitting for Collaborative
Inference Over Time-Varying Channels [52.60092598312894]
本稿では,エッジノードとリモートノード間のモデル圧縮と時間変化モデル分割を利用して,エッジデバイスにおける総エネルギーコストを削減する手法を提案する。
提案手法は, 検討されたベースラインと比較して, エネルギー消費が最小限であり, 排出コストが$CO$となる。
論文 参考訳(メタデータ) (2021-06-02T07:36:27Z) - A Machine Learning-Based Migration Strategy for Virtual Network Function
Instances [3.7783523378336104]
我々は、VNFインスタンスのマイグレーション戦略であるVNNIM(VNF Neural Network for Instance Migration)を開発した。
VNNIMは、移行後のサーバを99.07%の精度で予測するのに非常に効果的である。
しかし、VNNIMの最大の利点は、ランタイム分析によって強調される実行時の効率である。
論文 参考訳(メタデータ) (2020-06-15T15:03:27Z) - Communication Efficient Federated Learning with Energy Awareness over
Wireless Networks [51.645564534597625]
フェデレートラーニング(FL)では、パラメータサーバとモバイルデバイスが無線リンク上でトレーニングパラメータを共有する。
我々は、勾配の符号のみを交換するSignSGDという考え方を採用する。
2つの最適化問題を定式化し、学習性能を最適化する。
FLでは非常に不均一な方法でモバイルデバイスに分散される可能性があることを考慮し,手話に基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-04-15T21:25:13Z) - On Coresets for Support Vector Machines [61.928187390362176]
coresetは、元のデータポイントの小さな、代表的なサブセットである。
我々は,本アルゴリズムを用いて,既製のSVMソルバをストリーミング,分散,動的データ設定に適用可能であることを示す。
論文 参考訳(メタデータ) (2020-02-15T23:25:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。