論文の概要: A Smart Background Scheduler for Storage Systems
- arxiv url: http://arxiv.org/abs/2006.01402v1
- Date: Tue, 2 Jun 2020 05:39:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 01:14:58.730765
- Title: A Smart Background Scheduler for Storage Systems
- Title(参考訳): ストレージシステムのためのスマートバックグラウンドスケジューリング
- Authors: Maher Kachmar, David Kaeli
- Abstract要約: 今日のエンタープライズストレージシステムでは、スナップショット削除やドライブリビルドなどのサポートされているデータサービスが、重いフォアグラウンドIOとともにインラインで実行されると、大きなパフォーマンス障害を引き起こす可能性がある。
本稿では、この繰り返しパターンを学習し、ストレージシステムがピーク性能を維持するための優先度ベースのバックグラウンドスケジューラを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In today's enterprise storage systems, supported data services such as
snapshot delete or drive rebuild can cause tremendous performance interference
if executed inline along with heavy foreground IO, often leading to missing
SLOs (Service Level Objectives). Typical storage system applications such as
web or VDI (Virtual Desktop Infrastructure) follow a repetitive high/low
workload pattern that can be learned and forecasted. We propose a
priority-based background scheduler that learns this repetitive pattern and
allows storage systems to maintain peak performance and in turn meet service
level objectives (SLOs) while supporting a number of data services. When
foreground IO demand intensifies, system resources are dedicated to service
foreground IO requests and any background processing that can be deferred are
recorded to be processed in future idle cycles as long as forecast shows that
storage pool has remaining capacity. The smart background scheduler adopts a
resource partitioning model that allows both foreground and background IO to
execute together as long as foreground IOs are not impacted where the scheduler
harness any free cycle to clear background debt. Using traces from VDI
application, we show how our technique surpasses a method that statically limit
the deferred background debt and improve SLO violations from 54.6% when using a
fixed background debt watermark to merely a 6.2% if dynamically set by our
smart background scheduler.
- Abstract(参考訳): 今日のエンタープライズストレージシステムでは、スナップショット削除やドライブリビルドなどのサポートされているデータサービスが、重いフォアグラウンドIOとともにインラインで実行されると、大きなパフォーマンス障害を引き起こします。
WebやVDI(Virtual Desktop Infrastructure)のような一般的なストレージシステムアプリケーションは、学習と予測が可能な反復的なハイ/ローワークロードパターンに従っています。
本稿では、この繰り返しパターンを学習し、ストレージシステムがピーク性能を維持し、複数のデータサービスをサポートしながらサービスレベル目標(SLO)を満たすことができる優先度ベースのバックグラウンドスケジューラを提案する。
フォアグラウンドIO需要が増大すると、システムリソースはサービスフォアグラウンドIO要求に専用され、予測がストレージプールのキャパシティが持続していることを示す限り、遅延可能なバックグラウンド処理は将来のアイドルサイクルで処理されるように記録される。
スマートバックグラウンドスケジューラはリソースパーティショニングモデルを採用しており、フォアグラウンドとバックグラウンドIOの両方で、フォアグラウンドIOが影響を受けない限り、スケジューラが任意のフリーサイクルを使用してバックグラウンド負債をクリアすることができる。
提案手法は,vdiアプリケーションからのトレースを用いて,遅延したバックグラウンド負債を静的に制限し,slo違反を54.6%から,スマートなバックグラウンドスケジューラによって動的に設定された場合の6.2%まで改善する手法を超越していることを示す。
関連論文リスト
- Fast Inference for Augmented Large Language Models [14.195265302357148]
Augmented Large Language Models (LLM)は、APIコールを通じて外部データソースを統合することで、スタンドアロンのLLMの機能を強化する。
SJF(Shortest Job First)のような従来のサイズベースのスケジューリングアルゴリズムは、完了時間の最小化にはあまり効果がない。
拡張LLMのための新しいLLM推論フレームワークであるLAMPSを提案する。
論文 参考訳(メタデータ) (2024-10-23T19:53:30Z) - Don't Stop Me Now: Embedding Based Scheduling for LLMs [22.099820814682513]
SRPT(Shortest Remaining Process Time)のようなサイズベースのスケジューリングアルゴリズムは、平均的な要求完了時間を削減することを目的としている。
LLMシステムにおけるメモリオーバーヘッドを考慮した予測型SRPT変種を提案する。
論文 参考訳(メタデータ) (2024-10-01T19:51:07Z) - Llumnix: Dynamic Scheduling for Large Language Model Serving [17.919408899409113]
大規模言語モデル(LLM)に対する推論は、その可能性を解き放つ鍵である。
Llumnixは、実行時再スケジューリングによって、不均一で予測不能な要求に応答するLLMサービスシステムである。
Llumnixはテールレイテンシを桁違いに改善し,高優先度要求を最大1.5倍高速化し,最大36%のコスト削減を実現している。
論文 参考訳(メタデータ) (2024-06-05T13:20:18Z) - RelayAttention for Efficient Large Language Model Serving with Long System Prompts [59.50256661158862]
本稿では,長いシステムプロンプトを含むLCMサービスの効率を向上させることを目的とする。
これらのシステムプロンプトの処理には、既存の因果注意アルゴリズムにおいて、大量のメモリアクセスが必要である。
本稿では,DRAMから入力トークンのバッチに対して,DRAMから隠れた状態を正確に1回読み取ることのできるアテンションアルゴリズムであるRelayAttentionを提案する。
論文 参考訳(メタデータ) (2024-02-22T18:58:28Z) - Sparse-DySta: Sparsity-Aware Dynamic and Static Scheduling for Sparse
Multi-DNN Workloads [65.47816359465155]
複数のディープニューラルネットワーク(DNN)を並列に実行することは、両エッジデバイスで新たなワークロードとなっている。
スパースマルチDNNスケジューリングに静的なスケジューラパターンと動的スケジューラ情報の両方を利用する新しいスケジューラDystaを提案する。
提案手法は, 遅延制約違反率を最大10%削減し, 平均正規化ターンアラウンド時間で約4倍に向上する。
論文 参考訳(メタデータ) (2023-10-17T09:25:17Z) - Dynamic Scheduling for Federated Edge Learning with Streaming Data [56.91063444859008]
我々は,長期的エネルギー制約のある分散エッジデバイスにおいて,トレーニングデータを時間とともにランダムに生成するフェデレーションエッジ学習(FEEL)システムを検討する。
限られた通信リソースとレイテンシ要件のため、各イテレーションでローカルトレーニングプロセスに参加するのはデバイスのサブセットのみである。
論文 参考訳(メタデータ) (2023-05-02T07:41:16Z) - Scheduling Inference Workloads on Distributed Edge Clusters with
Reinforcement Learning [11.007816552466952]
本稿では,エッジネットワークにおける予測クエリを短時間でスケジューリングする問題に焦点をあてる。
シミュレーションにより,大規模ISPの現実的なネットワーク設定とワークロードにおけるいくつかのポリシーを解析する。
我々は、強化学習に基づくスケジューリングアルゴリズムASETを設計し、システム条件に応じてその決定を適応させることができる。
論文 参考訳(メタデータ) (2023-01-31T13:23:34Z) - NumS: Scalable Array Programming for the Cloud [82.827921577004]
タスクベース分散システム上でNumPyのような表現を最適化する配列プログラミングライブラリであるNumSを提案する。
これはLoad Simulated Hierarchical Scheduling (LSHS)と呼ばれる新しいスケジューラによって実現される。
LSHSは、ネットワーク負荷を2倍減らし、メモリを4倍減らし、ロジスティック回帰問題において実行時間を10倍減らし、Rayの性能を向上させる。
論文 参考訳(メタデータ) (2022-06-28T20:13:40Z) - Recurrent Dynamic Embedding for Video Object Segmentation [54.52527157232795]
一定サイズのメモリバンクを構築するためにRDE(Recurrent Dynamic Embedding)を提案する。
本稿では, SAM を長時間の動画でより堅牢にするため, トレーニング段階での無バイアス誘導損失を提案する。
また、メモリバンクの異なる品質のマスクの埋め込みをネットワークが修復できるように、新たな自己補正戦略を設計する。
論文 参考訳(メタデータ) (2022-05-08T02:24:43Z) - Memory-guided Image De-raining Using Time-Lapse Data [83.12497916664904]
降雨物に隠れた1枚の画像から、きれいで無雨な背景のシーンを復元する作業である、単一画像デライニングの課題に対処する。
本稿では,長期雨天情報をタイムラプスデータに記録する上で,メモリネットワークに基づく新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-01-06T01:36:59Z) - Decentralized Task Offloading in Edge Computing: A Multi-User
Multi-Armed Bandit Approach [29.211635895407753]
未知のシステム側情報を考慮したマルチユーザオフロードフレームワークを開発した。
具体的には、動的タスク配置をオンラインマルチユーザーマルチアームバンディットプロセスとして定式化する。
我々は,DEBOが最適なユーザサーバ割り当てを導出できることを示す。
論文 参考訳(メタデータ) (2021-12-22T11:51:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。