論文の概要: LearnedWMP: Workload Memory Prediction Using Distribution of Query
Templates
- arxiv url: http://arxiv.org/abs/2401.12103v1
- Date: Mon, 22 Jan 2024 16:38:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-23 13:10:14.416955
- Title: LearnedWMP: Workload Memory Prediction Using Distribution of Query
Templates
- Title(参考訳): LearnedWMP:クエリテンプレートの分散によるワークロードメモリ予測
- Authors: Shaikh Quader, Andres Jaramillo, Sumona Mukhopadhyay, Ghadeer Abuoda,
Calisto Zuzarte, David Kalmuk, Marin Litoiu, Manos Papagelis
- Abstract要約: 本稿では,ワークロードの動作メモリ要求を改善・簡易化するために,Leared Workload Memory Prediction (LearnedWMP)を提案する。
本研究では,LeartedWMPにより,実行時のメモリ推定誤差を最大47.6%削減することを示す。
- 参考スコア(独自算出の注目度): 2.803890673782225
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In a modern DBMS, working memory is frequently the limiting factor when
processing in-memory analytic query operations such as joins, sorting, and
aggregation. Existing resource estimation approaches for a DBMS estimate the
resource consumption of a query by computing an estimate of each individual
database operator in the query execution plan. Such an approach is slow and
error-prone as it relies upon simplifying assumptions, such as uniformity and
independence of the underlying data. Additionally, the existing approach
focuses on individual queries separately and does not factor in other queries
in the workload that may be executed concurrently. In this research, we are
interested in query performance optimization under concurrent execution of a
batch of queries (a workload). Specifically, we focus on predicting the memory
demand for a workload rather than providing separate estimates for each query
within it. We introduce the problem of workload memory prediction and formalize
it as a distribution regression problem. We propose Learned Workload Memory
Prediction (LearnedWMP) to improve and simplify estimating the working memory
demands of workloads. Through a comprehensive experimental evaluation, we show
that LearnedWMP reduces the memory estimation error of the
state-of-the-practice method by up to 47.6%. Compared to an alternative
single-query model, during training and inferencing, the LearnedWMP model and
its variants were 3x to 10x faster. Moreover, LearnedWMP-based models were at
least 50% smaller in most cases. Overall, the results demonstrate the
advantages of the LearnedWMP approach and its potential for a broader impact on
query performance optimization.
- Abstract(参考訳): 現代のDBMSでは、ジョイン、ソート、アグリゲーションなどのインメモリ分析クエリ操作を処理する際に、ワーキングメモリがしばしば制限要因となる。
既存のdbmsのリソース推定手法は、クエリ実行計画において各データベースオペレータの見積もりを計算してクエリのリソース消費量を推定する。
このようなアプローチは、基礎となるデータの均一性や独立性といった仮定を単純化することに依存するため、遅くてエラーを起こしやすい。
さらに、既存のアプローチは個別のクエリを個別に重視しており、同時に実行されるワークロード内の他のクエリを考慮しない。
本研究では,クエリのバッチ(ワークロード)の同時実行時のクエリ性能の最適化に関心がある。
具体的には、各クエリに対する別々の見積を提供するのではなく、ワークロードのメモリ要求を予測することに重点を置いています。
本稿では,ワークロードメモリ予測の問題を紹介し,分散回帰問題として定式化する。
本稿では,ワークロードの動作メモリ要求を改善・簡易化するために,Leared Workload Memory Prediction (LearnedWMP)を提案する。
包括的実験により,LeartedWMPは,実行時のメモリ推定誤差を最大47.6%削減することを示した。
代替のシングルクエリモデルと比較して、トレーニングと推論の間、LeartedWMPモデルとその派生モデルは3倍から10倍速くなった。
さらに、LeartedWMPベースのモデルは、ほとんどの場合、少なくとも50%小さくなった。
全体としては、LeartedWMPアプローチの利点と、クエリ性能の最適化に大きな影響を与える可能性を示している。
関連論文リスト
- Revisiting BPR: A Replicability Study of a Common Recommender System Baseline [78.00363373925758]
我々は,BPRモデルの特徴を考察し,その性能への影響を示し,オープンソースのBPR実装について検討する。
分析の結果,これらの実装とオリジナルのBPR論文の矛盾が明らかとなり,特定の実装に対して最大50%の性能低下がみられた。
BPRモデルは、トップnのレコメンデーションタスクにおける最先端メソッドに近いパフォーマンスレベルを達成でき、特定のデータセット上でもパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2024-09-21T18:39:53Z) - EMP: Enhance Memory in Data Pruning [18.535687216213628]
近年,大規模言語と視覚モデルの性能は高いが,事前学習と微調整のコストが高いため,データセットプルーニングによる学習の高速化に向けた研究が進んでいる。
従来の手法では、サンプルの損失を評価基準として用い、トレーニングに最も「難しい」サンプルを選択することを目的としていた。
本稿では,データのメモリを増大させ,その性能を向上させることにより,高プルーニングレート下でのメモリ不足問題に対処するエンハンスメモリ・プルーニング(EMP)を提案する。
論文 参考訳(メタデータ) (2024-08-28T10:29:52Z) - QPO: Query-dependent Prompt Optimization via Multi-Loop Offline Reinforcement Learning [58.767866109043055]
クエリ依存型プロンプト最適化(QPO)を導入し、入力クエリに合わせて最適なプロンプトを生成するために、小さな事前訓練された言語モデルを反復的に微調整する。
我々は、オープンソースのタスクに様々なプロンプトをベンチマークする副産物として、すでに大量に存在するオフラインのプロンプトデータから洞察を得る。
様々なLLMスケールと多様なNLPおよび数学タスクの実験は、ゼロショットと少数ショットの両方のシナリオにおいて、我々の手法の有効性とコスト効率を実証している。
論文 参考訳(メタデータ) (2024-08-20T03:06:48Z) - Large Language Models Prompting With Episodic Memory [53.8690170372303]
本稿では,POEM(PrOmpting with Episodic Memory)を提案する。
テストフェーズでは、各テストクエリのサンプルのシーケンスを最適化し、エピソードメモリにおけるトップkで最も類似したトレーニング例から最も高い合計報酬を得るシーケンスを選択する。
その結果,POEMはテキスト分類タスクにおいてTEMPERAやRLPromptといった最近の技術よりも5.3%向上していることがわかった。
論文 参考訳(メタデータ) (2024-08-14T11:19:28Z) - CORM: Cache Optimization with Recent Message for Large Language Model Inference [57.109354287786154]
メモリフットプリントを大幅に最小化するKVキャッシュを最適化する革新的な手法を提案する。
KVキャッシュ消去ポリシーであるCORMは、モデル微調整を必要とせずに、推論に必要なキーと値のペアを動的に保持する。
検証の結果,CORMはKVキャッシュの推論メモリ使用量を最大70%削減し,LongBenchの6つのタスクで性能劣化を無視できることがわかった。
論文 参考訳(メタデータ) (2024-04-24T16:11:54Z) - Hydro: Adaptive Query Processing of ML Queries [7.317548344184541]
機械学習(ML)クエリを効率的に処理するための適応クエリ処理(AQP)であるHydroを提案する。
ベースラインシステム上で最大11.52倍のスピードアップを実現し,Hydroの有効性を実証する。
論文 参考訳(メタデータ) (2024-03-22T01:17:07Z) - Optimizing LLM Queries in Relational Workloads [58.254894049950366]
本稿では,LLMをリレーショナルクエリ内で実行する解析処理に対して,LLM(Large Language Models)推論を最適化する方法を示す。
私たちはこれらの最適化をApache Sparkで実装し、vLLMをバックエンドとして提供しています。
実データセット上の多様なLLMベースのクエリのベンチマークで、エンドツーエンドのレイテンシを最大4.4倍改善する。
論文 参考訳(メタデータ) (2024-03-09T07:01:44Z) - Sibyl: Forecasting Time-Evolving Query Workloads [9.16115447503004]
データベースシステムは、しばしば、ワークロードベースのパフォーマンスチューニングを実行するために、過去のクエリトレースに依存する。
実運用ワークロードは、時間的進化であり、将来のワークロードを最適化する上で、過去のクエリを非効率にする。
SIBYLはエンド・ツー・エンドの機械学習ベースのフレームワークで、将来的なクエリの順序を正確に予測する。
論文 参考訳(メタデータ) (2024-01-08T08:11:32Z) - BitE : Accelerating Learned Query Optimization in a Mixed-Workload
Environment [0.36700088931938835]
BitEは、データベース統計とメタデータを使用して、学習したクエリをチューニングしてパフォーマンスを向上させる、新しいアンサンブル学習モデルである。
我々のモデルは従来の手法に比べて19.6%改善されたクエリと15.8%改善されたクエリを実現している。
論文 参考訳(メタデータ) (2023-06-01T16:05:33Z) - Optimal Resource Allocation for Serverless Queries [8.59568779761598]
以前の作業では、リソース割り当てと実行時の積極的なトレードオフを無視しながら、ピークアロケーションの予測に重点を置いていた。
本稿では,新しいクエリと過去のクエリの両方に対して,アグレッシブなトレードオフでパフォーマンスを予測できる最適なリソース割り当てシステムを提案する。
論文 参考訳(メタデータ) (2021-07-19T02:55:48Z) - Continual Learning using a Bayesian Nonparametric Dictionary of Weight
Factors [75.58555462743585]
訓練されたニューラルネットワークは、シーケンシャルなタスク設定で破滅的な忘れを経験する傾向がある。
Indian Buffet Process (IBP) に基づく原則的非パラメトリック手法を提案する。
連続学習ベンチマークにおける本手法の有効性を実証し、トレーニングを通して重み要因の配分と再利用方法を分析する。
論文 参考訳(メタデータ) (2020-04-21T15:20:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。