論文の概要: L2T-Tune:LLM-Guided Hybrid Database Tuning with LHS and TD3
- arxiv url: http://arxiv.org/abs/2511.01602v1
- Date: Mon, 03 Nov 2025 14:04:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:27.288351
- Title: L2T-Tune:LLM-Guided Hybrid Database Tuning with LHS and TD3
- Title(参考訳): L2T-Tune:LLM-Guided Hybrid Database Tuning with LHS and TD3
- Authors: Xinyue Yang, Chen Zheng, Yaoyang Hou, Renhao Zhang, Yiyan Zhang, Yanjun Wu, Heng Zhang,
- Abstract要約: 我々は,新しいハイブリッドデータベースチューニングフレームワークであるL2T-Tuneを提案する。
ステージ1は温かいスタートを実行し、knob空間全体で均一なサンプルを同時に生成する。
ステージ2は大きな言語モデルを利用して、マニュアルやコミュニティドキュメントからのヒントをマイニングし、優先順位付けします。
ステージ3では、ウォームスタートサンプルプールを使用して、ノブと状態特徴の次元を減らし、Twin Delayed Deep Deterministic Policy Gradientアルゴリズムで設定を微調整する。
- 参考スコア(独自算出の注目度): 16.98437325272902
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Configuration tuning is critical for database performance. Although recent advancements in database tuning have shown promising results in throughput and latency improvement, challenges remain. First, the vast knob space makes direct optimization unstable and slow to converge. Second, reinforcement learning pipelines often lack effective warm-start guidance and require long offline training. Third, transferability is limited: when hardware or workloads change, existing models typically require substantial retraining to recover performance. To address these limitations, we propose L2T-Tune, a new LLM-guided hybrid database tuning framework that features a three-stage pipeline: Stage one performs a warm start that simultaneously generates uniform samples across the knob space and logs them into a shared pool; Stage two leverages a large language model to mine and prioritize tuning hints from manuals and community documents for rapid convergence. Stage three uses the warm-start sample pool to reduce the dimensionality of knobs and state features, then fine-tunes the configuration with the Twin Delayed Deep Deterministic Policy Gradient algorithm. We conduct experiments on L2T-Tune and the state-of-the-art models. Compared with the best-performing alternative, our approach improves performance by an average of 37.1% across all workloads, and by up to 73% on TPC-C. Compared with models trained with reinforcement learning, it achieves rapid convergence in the offline tuning stage on a single server. Moreover, during the online tuning stage, it only takes 30 steps to achieve best results.
- Abstract(参考訳): データベースのパフォーマンスには構成チューニングが不可欠だ。
データベースチューニングの最近の進歩はスループットとレイテンシの改善に有望な結果を示しているが、課題は残る。
第一に、広大なノブ空間は直接最適化を不安定にし、収束が遅くする。
第二に、強化学習パイプラインは効果的なウォームスタートガイダンスを欠き、長いオフライントレーニングを必要とすることが多い。
第3に、転送可能性には制限がある。ハードウェアやワークロードが変更されると、既存のモデルは通常、パフォーマンスを回復するためにかなりのリトレーニングが必要になる。
L2T-Tuneは3段階のパイプラインを特徴とする新しいLLM誘導型ハイブリッドデータベースチューニングフレームワークである。ステージ1は、knob空間をまたいだ一様サンプルを同時に生成し、共有プールにログするウォームスタートを実行する。
ステージ3では、ウォームスタートサンプルプールを使用して、ノブと状態特徴の次元を減らし、Twin Delayed Deep Deterministic Policy Gradientアルゴリズムで設定を微調整する。
我々はL2T-Tuneと最先端モデルの実験を行う。
ベストパフォーマンスの代替手段と比較して、当社のアプローチは、すべてのワークロードで平均37.1%、TPC-Cで最大73%パフォーマンスを改善しています。
強化学習で訓練されたモデルと比較して、単一のサーバ上でオフラインチューニングステージにおいて、急速に収束する。
さらに、オンラインチューニングの段階では、最高の結果を得るためには30ステップしか必要ありません。
関連論文リスト
- Transformer-based Scalable Beamforming Optimization via Deep Residual Learning [12.79709425087431]
大規模MU-MISOチャネルにおけるダウンリンクビームフォーミングのための教師なしディープラーニングフレームワーク。
モデルはオフラインでトレーニングされ、動的通信環境における軽量フィードフォワード計算によるリアルタイム推論を可能にする。
論文 参考訳(メタデータ) (2025-10-15T01:43:51Z) - A Stable Whitening Optimizer for Efficient Neural Network Training [99.7641280234926]
アルゴリズムのシャンプー系をベースとして,3つの重要な問題を同定・緩和し,SPlus法を提案する。
まず,行列逆が長期にわたってキャッシュされる場合,素早いシャンプーは分岐しがちであることがわかった。
第二に、ネットワーク幅をまたいで学習率の伝達を可能にするために、形状認識スケーリングを適用する。
第3に,高い学習率によってパラメータノイズが大きくなり,より高速な学習をブロックする簡単な反復学習方式を提案する。
論文 参考訳(メタデータ) (2025-06-08T18:43:31Z) - Shadow-FT: Tuning Instruct Model via Training on Paired Base Model [67.20706292627106]
大規模言語モデル(LLM)は、様々なタスクのさらなる微調整の恩恵を一貫して受けている。
本稿では,対応するベースモデルを活用してインストラクタモデルをチューニングするための新しいシャドウ-FTフレームワークを提案する。
提案するShadow-FTは,追加パラメータを導入せず,実装が容易で,性能が大幅に向上する。
論文 参考訳(メタデータ) (2025-05-19T05:16:21Z) - Fast T2T: Optimization Consistency Speeds Up Diffusion-Based Training-to-Testing Solving for Combinatorial Optimization [83.65278205301576]
雑音レベルから与えられたインスタンスの最適解への直接写像を学習し、最小限のショットで高品質な生成を容易にすることを提案する。
これは、サンプル間の差を最小限に抑える最適化一貫性トレーニングプロトコルによって達成される。
The Traveling Salesman Problem (TSP) と Maximal Independent Set (MIS) は、ソリューションの品質と効率の両方に関して、Fast T2Tの優位性を実証している。
論文 参考訳(メタデータ) (2025-02-05T07:13:43Z) - MobiZO: Enabling Efficient LLM Fine-Tuning at the Edge via Inference Engines [28.18421624702502]
本稿では,大規模言語モデル(LLM)のための資源効率の高い微調整フレームワークであるMobiZOを紹介する。
MobiZOは、微調整精度を向上しつつ、実行時の大幅な高速化とメモリ節約を実現する。
MobiZOは、微調整精度を向上しつつ、実行時の大幅なスピードアップとメモリ節約を実現している。
論文 参考訳(メタデータ) (2024-09-23T20:14:09Z) - E2ETune: End-to-End Knob Tuning via Fine-tuned Generative Language Model [22.661022020554622]
E2ETuneは、細調整された生成言語モデルを利用したエンドツーエンドのノブチューナーである。
本稿では,大量のトレーニングデータを効率的に生成する新しいデータ生成フレームワークを提案する。
そして、これらのデータを用いて生成言語モデルを微調整し、エンドツーエンドのノブチューナーを生成する。
論文 参考訳(メタデータ) (2024-04-17T17:28:05Z) - DSEE: Dually Sparsity-embedded Efficient Tuning of Pre-trained Language
Models [152.29364079385635]
事前訓練されたモデルが大きくなればなるほど、微調整のプロセスは時間がかかり、計算コストがかかる可能性がある。
本稿では,重み更新と最終モデルの重み付けに先立って,疎度を活用することで,資源・パラメータ効率の微調整を行うフレームワークを提案する。
提案するフレームワークは,Dually Sparsity-Embeded Efficient Tuning (DSEE)と呼ばれ,パラメータ効率のよい微調整とリソース効率の推論という2つの重要な目標を達成することを目的としている。
論文 参考訳(メタデータ) (2021-10-30T03:29:47Z) - NASOA: Towards Faster Task-oriented Online Fine-tuning with a Zoo of
Models [90.6485663020735]
事前訓練されたImageNetモデルからの微調整は、様々なコンピュータビジョンタスクに対して単純で効果的で一般的なアプローチである。
我々は,タスク指向のより高速な微調整を実現するため,NASOAというニューラルアーキテクチャ検索とオンライン適応フレームワークを共同で提案する。
論文 参考訳(メタデータ) (2021-08-07T12:03:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。