論文の概要: SafeLoad: Efficient Admission Control Framework for Identifying Memory-Overloading Queries in Cloud Data Warehouses
- arxiv url: http://arxiv.org/abs/2601.01888v1
- Date: Mon, 05 Jan 2026 08:29:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:22.859875
- Title: SafeLoad: Efficient Admission Control Framework for Identifying Memory-Overloading Queries in Cloud Data Warehouses
- Title(参考訳): SafeLoad: クラウドデータウェアハウスのメモリオーバーロードクエリを識別するための効率的なアドミッション制御フレームワーク
- Authors: Yifan Wu, Yuhan Li, Zhenhua Wang, Zhongle Xie, Dingyu Yang, Ke Chen, Lidan Shou, Bo Tang, Liang Lin, Huan Li, Gang Chen,
- Abstract要約: メモリオーバーロードは、クラウドデータウェアハウスにおけるリソースの枯渇の一般的な形態である。
我々は,メモリオーバロード(MO)クエリの特定に特化して設計された,最初のクエリ入力制御フレームワークであるSafeLoadを提案する。
SafeLoadは、オンラインおよびオフライン時間オーバーヘッドの少ない最先端の予測性能を実現する。
- 参考スコア(独自算出の注目度): 59.68732483257323
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Memory overload is a common form of resource exhaustion in cloud data warehouses. When database queries fail due to memory overload, it not only wastes critical resources such as CPU time but also disrupts the execution of core business processes, as memory-overloading (MO) queries are typically part of complex workflows. If such queries are identified in advance and scheduled to memory-rich serverless clusters, it can prevent resource wastage and query execution failure. Therefore, cloud data warehouses desire an admission control framework with high prediction precision, interpretability, efficiency, and adaptability to effectively identify MO queries. However, existing admission control frameworks primarily focus on scenarios like SLA satisfaction and resource isolation, with limited precision in identifying MO queries. Moreover, there is a lack of publicly available MO-labeled datasets with workloads for training and benchmarking. To tackle these challenges, we propose SafeLoad, the first query admission control framework specifically designed to identify MO queries. Alongside, we release SafeBench, an open-source, industrial-scale benchmark for this task, which includes 150 million real queries. SafeLoad first filters out memory-safe queries using the interpretable discriminative rule. It then applies a hybrid architecture that integrates both a global model and cluster-level models, supplemented by a misprediction correction module to identify MO queries. Additionally, a self-tuning quota management mechanism dynamically adjusts prediction quotas per cluster to improve precision. Experimental results show that SafeLoad achieves state-of-the-art prediction performance with low online and offline time overhead. Specifically, SafeLoad improves precision by up to 66% over the best baseline and reduces wasted CPU time by up to 8.09x compared to scenarios without SafeLoad.
- Abstract(参考訳): メモリオーバーロードは、クラウドデータウェアハウスにおけるリソースの枯渇の一般的な形態である。
データベースクエリがメモリ過負荷のために失敗した場合、CPU時間などの重要なリソースを浪費するだけでなく、メモリ過負荷(MO)クエリは一般的に複雑なワークフローの一部であるため、コアビジネスプロセスの実行を阻害する。
このようなクエリが事前に識別され、メモリ豊富なサーバレスクラスタにスケジュールされている場合、リソースの浪費やクエリ実行の失敗を防止することができる。
したがって、クラウドデータウェアハウスは、MOクエリを効果的に識別するための高い予測精度、解釈可能性、効率、適応性を備えた受け入れ制御フレームワークを望んでいる。
しかし、既存の受け入れ制御フレームワークは、主にSLA満足度やリソース分離のようなシナリオに焦点を当てており、MOクエリの特定には精度が限られています。
さらに、トレーニングとベンチマークのためのワークロードを備えたMOラベル付きデータセットが公開されていない。
これらの課題に対処するために,我々は,MOクエリを識別するように設計された,最初のクエリ入力制御フレームワークであるSafeLoadを提案する。
さらに私たちは,このタスクのための,オープンソースの産業規模のベンチマークであるSafeBenchをリリースしています。
SafeLoadはまず、解釈可能な識別ルールを使用してメモリセーフなクエリをフィルタリングする。
次に、グローバルモデルとクラスタレベルのモデルの両方を統合するハイブリッドアーキテクチャを適用し、MOクエリを識別するための誤予測補正モジュールによって補完される。
さらに、自己調整クォータ管理機構は、クラスタ毎の予測クォータを動的に調整し、精度を向上させる。
実験結果から,SafeLoadはオンラインおよびオフライン時間オーバーヘッドの低い最先端の予測性能を実現することが示された。
具体的には、SafeLoadは最高のベースラインに対して最大66%の精度向上を実現し、SafeLoadのないシナリオと比較して、無駄なCPU時間を最大8.09倍削減する。
関連論文リスト
- MemSearcher: Training LLMs to Reason, Search and Manage Memory via End-to-End Reinforcement Learning [73.27233666920618]
本稿では,メモリを反復的に保持し,現在のターンと組み合わせたエージェントワークフローであるMemSearcherを提案する。
それぞれのターンで、MemSearcherはユーザーの質問をメモリに融合させ、推論トレースを生成し、検索アクションを実行し、メモリを更新してタスクの解決に必要な情報のみを保持する。
我々は,MemSearcher Agents の推論,検索戦略,メモリ管理を協調的に最適化する,エンドツーエンドの RL フレームワークである Multi-context GRPO を紹介する。
論文 参考訳(メタデータ) (2025-11-04T18:27:39Z) - StorageXTuner: An LLM Agent-Driven Automatic Tuning Framework for Heterogeneous Storage Systems [9.148071923560414]
ヒューリスティックとMLチューニングは、しばしばシステム固有のものであり、手動のグルーを必要とし、変更の下で劣化する。
最近のLLMベースのアプローチは、チューニングをシングルショットのシステム固有のタスクとして扱うのに役立つ。
ヘテロジニアスストレージエンジンのためのLLMエージェント駆動自動チューニングフレームワークであるStorageXTunerを提案する。
プロトタイプを実装してRocksDB, LevelDB, CacheLib, InnoDBでYCSB, MixGraph, TPC-H/Cで評価する。
論文 参考訳(メタデータ) (2025-10-28T22:33:14Z) - SEDM: Scalable Self-Evolving Distributed Memory for Agents [23.182291416527764]
SEDMは、メモリをパッシブリポジトリからアクティブな自己最適化コンポーネントに変換する検証可能で適応的なフレームワークである。
また,SEDMは,強いメモリベースラインに比べてトークンオーバーヘッドを低減しつつ,推論精度を向上することを示した。
結果は、SEDMをオープンエンドのマルチエージェントコラボレーションのためのスケーラブルで持続可能なメモリメカニズムとして強調する。
論文 参考訳(メタデータ) (2025-09-11T14:37:37Z) - Memory-R1: Enhancing Large Language Model Agents to Manage and Utilize Memories via Reinforcement Learning [89.55738101744657]
大規模言語モデル(LLM)は、幅広いNLPタスクで印象的な機能を示しているが、基本的にはステートレスである。
本稿では,LLMに外部メモリを積極的に管理・活用する機能を備えた強化学習フレームワークであるMemory-R1を提案する。
論文 参考訳(メタデータ) (2025-08-27T12:26:55Z) - DRIFT: Dynamic Rule-Based Defense with Injection Isolation for Securing LLM Agents [52.92354372596197]
大規模言語モデル(LLM)は、強力な推論と計画能力のため、エージェントシステムの中心となってきています。
この相互作用は、外部ソースからの悪意のある入力がエージェントの振る舞いを誤解させる可能性がある、インジェクション攻撃のリスクも引き起こす。
本稿では,信頼に値するエージェントシステムのための動的ルールベースの分離フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-13T05:01:09Z) - How Robust Are Router-LLMs? Analysis of the Fragility of LLM Routing Capabilities [62.474732677086855]
大規模言語モデル(LLM)ルーティングは,計算コストと性能のバランスをとる上で重要な戦略である。
DSCベンチマークを提案する: Diverse, Simple, and Categorizedは、幅広いクエリタイプでルータのパフォーマンスを分類する評価フレームワークである。
論文 参考訳(メタデータ) (2025-03-20T19:52:30Z) - Leveraging Approximate Caching for Faster Retrieval-Augmented Generation [6.674782158041247]
本稿では,ユーザクエリの類似性を活用してRAGワークフローを最適化する,近似キー値キャッシュであるProximityを紹介する。
Proximityは、それぞれのクエリを独立して扱う代わりに、類似したクエリが現れると、以前検索されたドキュメントを再利用する。
我々の実験では、LSH方式と現実的にスキューされたMedRAGのワークロードとの近さは、データベースのリコールとテストの精度を維持しながら、データベース呼び出しを77.2%削減することを示した。
論文 参考訳(メタデータ) (2025-03-07T15:54:04Z) - Safe LoRA: the Silver Lining of Reducing Safety Risks when Fine-tuning Large Language Models [51.20476412037321]
提案するSafe LoRAは,選択した層からのLoRA重みの投影を安全に整合した部分空間に導入することにより,オリジナルのLoRA実装に対する単純なワンライナーパッチである。
我々の実験は、純粋に悪意のあるデータに対して微調整を行う場合、Safe LoRAは元のアライメントモデルと同様の安全性を保っていることを示した。
論文 参考訳(メタデータ) (2024-05-27T05:04:05Z) - LearnedWMP: Workload Memory Prediction Using Distribution of Query
Templates [2.803890673782225]
本稿では,ワークロードの動作メモリ要求を改善・簡易化するために,Leared Workload Memory Prediction (LearnedWMP)を提案する。
本研究では,LeartedWMPにより,実行時のメモリ推定誤差を最大47.6%削減することを示す。
論文 参考訳(メタデータ) (2024-01-22T16:38:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。