論文の概要: QoS-Aware Power Minimization of Distributed Many-Core Servers using
Transfer Q-Learning
- arxiv url: http://arxiv.org/abs/2102.01348v1
- Date: Tue, 2 Feb 2021 06:47:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-03 16:40:14.328280
- Title: QoS-Aware Power Minimization of Distributed Many-Core Servers using
Transfer Q-Learning
- Title(参考訳): Transfer Q-Learning を用いた分散マルチコアサーバのQoS対応電力最小化
- Authors: Dainius Jenkus, Fei Xia, Rishad Shafik, Alex Yakovlev
- Abstract要約: 本稿では,水平スケーリング(ノード割り当て)と垂直スケーリング(ノード内のリソース割り当て)を用いたランタイム対応コントローラを提案する。
水平スケーリングは、ワークロードの要求と要求されたスケーラビリティに基づいて、一連のルールに従ってアクティブノードの数を決定する。
次に、動的電圧/周波数スケーリング(DVFS)を用いてワークロードプロファイルに基づいて電力/性能をチューニングする転送Q-ラーニングを用いて、垂直スケーリングと結合する。
これらの手法を組み合わせると、モデルなしQ-ラーニングと比較して探索時間や違反を減らすことができる。
- 参考スコア(独自算出の注目度): 8.123268089072523
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Web servers scaled across distributed systems necessitate complex runtime
controls for providing quality of service (QoS) guarantees as well as
minimizing the energy costs under dynamic workloads. This paper presents a
QoS-aware runtime controller using horizontal scaling (node allocation) and
vertical scaling (resource allocation within nodes) methods synergistically to
provide adaptation to workloads while minimizing the power consumption under
QoS constraint (i.e., response time). A horizontal scaling determines the
number of active nodes based on workload demands and the required QoS according
to a set of rules. Then, it is coupled with vertical scaling using transfer
Q-learning, which further tunes power/performance based on workload profile
using dynamic voltage/frequency scaling (DVFS). It transfers Q-values within
minimally explored states reducing exploration requirements. In addition, the
approach exploits a scalable architecture of the many-core server allowing to
reuse available knowledge from fully or partially explored nodes. When
combined, these methods allow to reduce the exploration time and QoS violations
when compared to model-free Q-learning. The technique balances design-time and
runtime costs to maximize the portability and operational optimality
demonstrated through persistent power reductions with minimal QoS violations
under different workload scenarios on heterogeneous multi-processing nodes of a
server cluster.
- Abstract(参考訳): 分散システムにまたがってスケールされたWebサーバは、サービス品質(QoS)を保証するための複雑なランタイムコントロールを必要とします。
本稿では、水平スケーリング(ノードアロケーション)と垂直スケーリング(ノード内のリソースアロケーション)メソッドを相乗的に使用して、QoS制約(応答時間)下での消費電力を最小限に抑えながら、ワークロードへの適応を提供するQoS対応ランタイムコントローラを提案する。
水平スケーリングは、一連のルールに従って、ワークロード要求と必要なQoSに基づいてアクティブノード数を決定する。
そして、ダイナミック電圧/周波数スケーリング(dvfs)を使用してワークロードプロファイルに基づいて、さらにパワー/パフォーマンスをチューニングするトランスファーqラーニングを用いた垂直スケーリングと結合する。
最小限の探索条件でQ値の転送を行う。
さらにこのアプローチでは,マルチコアサーバのスケーラブルなアーキテクチャを活用して,完全あるいは部分的に探索されたノードから利用可能な知識を再利用する。
これらの手法を組み合わせることで、モデルフリーのq-learningと比較して、探索時間とqos違反を低減できる。
このテクニックは設計時間とランタイムコストのバランスをとり、サーバクラスタの異種マルチプロセスノード上の異なるワークロードシナリオにおいて、qos違反を最小限に抑えながら、永続的な電力削減と運用上の最適性を最大化する。
関連論文リスト
- AdaLog: Post-Training Quantization for Vision Transformers with Adaptive Logarithm Quantizer [54.713778961605115]
Vision Transformer (ViT) はコンピュータビジョンコミュニティにおいて最も普及しているバックボーンネットワークの1つである。
本稿では,AdaLog(Adaptive Logarithm AdaLog)量子化器を提案する。
論文 参考訳(メタデータ) (2024-07-17T18:38:48Z) - Elastic Entangled Pair and Qubit Resource Management in Quantum Cloud
Computing [73.7522199491117]
量子クラウドコンピューティング(QCC)は、量子コンピューティングリソースを効率的に提供するための有望なアプローチを提供する。
ユーザ需要の変動と量子回路の要求は、効率的なリソース供給のために困難である。
本稿では、量子コンピューティングとネットワークリソースのプロビジョニングのためのリソース割り当てモデルを提案する。
論文 参考訳(メタデータ) (2023-07-25T00:38:46Z) - Generalizable Resource Scaling of 5G Slices using Constrained
Reinforcement Learning [2.0024258465343268]
ネットワークスライシングは、5Gが様々なアプリケーションをサポートするための重要なイネーブルである。
5G インフラストラクチャプロバイダ (InP) は,スライストラフィックに応じて適切なリソースを割り当てることが必須である。
論文 参考訳(メタデータ) (2023-06-15T17:16:34Z) - Matching Game for Optimized Association in Quantum Communication
Networks [65.16483325184237]
本稿では,量子スイッチのためのスワップスタブルな要求-QSアソシエーションアルゴリズムを提案する。
サービスされた要求の割合で、ほぼ最適(5%)のパフォーマンスを達成する。
QCNのサイズが大きくなると、スケーラビリティが向上し、ほぼ最適性能を維持することが示されている。
論文 参考訳(メタデータ) (2023-05-22T03:39:18Z) - Adaptive Federated Pruning in Hierarchical Wireless Networks [69.6417645730093]
Federated Learning(FL)は、サーバがプライベートデータセットにアクセスすることなく、複数のデバイスによって更新されたモデルを集約する、プライバシ保護の分散学習フレームワークである。
本稿では,無線ネットワークにおけるHFLのモデルプルーニングを導入し,ニューラルネットワークの規模を小さくする。
提案するHFLは,モデルプルーニングを伴わないHFLと比較して学習精度が良く,通信コストが約50%削減できることを示す。
論文 参考訳(メタデータ) (2023-05-15T22:04:49Z) - Scaling Limits of Quantum Repeater Networks [62.75241407271626]
量子ネットワーク(QN)は、セキュアな通信、強化されたセンシング、効率的な分散量子コンピューティングのための有望なプラットフォームである。
量子状態の脆弱な性質のため、これらのネットワークはスケーラビリティの観点から大きな課題に直面している。
本稿では,量子リピータネットワーク(QRN)のスケーリング限界について解析する。
論文 参考訳(メタデータ) (2023-05-15T14:57:01Z) - Monitoring and Proactive Management of QoS Levels in Pervasive
Applications [9.289846887298852]
Edge Computing (EC)は、データソースに近い複数の計算と分析機能を提供する。
高いレベルの実行を保証するという期待は、革新的なマネジメントアプローチに厳格な要件を課します。
タスクスケジューリングのための分散的かつインテリジェントな意思決定アプローチを詳述する。
我々は、ノードが継続的にレベルを監視し、それらを侵害して、ピアノードやクラウドにオフロードされるタスクを積極的に決定する確率を体系的に評価することを提案する。
論文 参考訳(メタデータ) (2022-06-11T09:27:47Z) - MCDS: AI Augmented Workflow Scheduling in Mobile Edge Cloud Computing
Systems [12.215537834860699]
近年,エッジコンピューティングプラットフォームの低応答時間を利用してアプリケーション品質・オブ・サービス(QoS)を最適化するスケジューリング手法が提案されている。
本稿では,Deep Surrogate Models を用いたモンテカルロ学習を用いて,モバイルエッジクラウドコンピューティングシステムにおけるワークフローアプリケーションを効率的にスケジューリングする手法を提案する。
論文 参考訳(メタデータ) (2021-12-14T10:00:01Z) - Accelerating variational quantum algorithms with multiple quantum
processors [78.36566711543476]
変分量子アルゴリズム(VQA)は、特定の計算上の利点を得るために、短期量子マシンを利用する可能性がある。
現代のVQAは、巨大なデータを扱うために単独の量子プロセッサを使用するという伝統によって妨げられている、計算上のオーバーヘッドに悩まされている。
ここでは、この問題に対処するため、効率的な分散最適化手法であるQUDIOを考案する。
論文 参考訳(メタデータ) (2021-06-24T08:18:42Z) - AI-based Resource Allocation: Reinforcement Learning for Adaptive
Auto-scaling in Serverless Environments [0.0]
近年、サーバーレスコンピューティングはクラウドコンピューティングモデルの魅力的な新しいパラダイムとして現れています。
商用およびオープンソースのサーバレスコンピューティングプラットフォームに共通するアプローチは、ワークロードベースの自動スケーリングである。
本稿では、サーバーレスフレームワークにおける要求ベース自動スケーリングに対する強化学習アプローチの適用性について検討する。
論文 参考訳(メタデータ) (2020-05-29T06:18:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。