論文の概要: DemoTuner: Efficient DBMS Knobs Tuning via LLM-Assisted Demonstration Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2511.09998v1
- Date: Fri, 14 Nov 2025 01:24:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.626782
- Title: DemoTuner: Efficient DBMS Knobs Tuning via LLM-Assisted Demonstration Reinforcement Learning
- Title(参考訳): DemoTuner: LLMによる実証強化学習によるDBMSノブチューニングの効率化
- Authors: Hui Dou, Lei Jin, Yuxuan Zhou, Jiang He, Yiwen Zhang,
- Abstract要約: 実演強化学習手法を用いて,DemoTuner という効率的なチューニングフレームワークを提案する。
マイニングされたヒントをRLエージェントトレーニングに効果的に組み込むため,DemoTuner でヒント認識型実演強化学習アルゴリズム HA-DDPGfD を提案する。
- 参考スコア(独自算出の注目度): 13.755682067847266
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The performance of modern DBMSs such as MySQL and PostgreSQL heavily depends on the configuration of performance-critical knobs. Manual tuning these knobs is laborious and inefficient due to the complex and high-dimensional nature of the configuration space. Among the automated tuning methods, reinforcement learning (RL)-based methods have recently sought to improve the DBMS knobs tuning process from several different perspectives. However, they still encounter challenges with slow convergence speed during offline training. In this paper, we mainly focus on how to leverage the valuable tuning hints contained in various textual documents such as DBMS manuals and web forums to improve the offline training of RL-based methods. To this end, we propose an efficient DBMS knobs tuning framework named DemoTuner via a novel LLM-assisted demonstration reinforcement learning method. Specifically, to comprehensively and accurately mine tuning hints from documents, we design a structured chain of thought prompt to employ LLMs to conduct a condition-aware tuning hints extraction task. To effectively integrate the mined tuning hints into RL agent training, we propose a hint-aware demonstration reinforcement learning algorithm HA-DDPGfD in DemoTuner. As far as we know, DemoTuner is the first work to introduce the demonstration reinforcement learning algorithm for DBMS knobs tuning. Experimental evaluations conducted on MySQL and PostgreSQL across various workloads demonstrate the significant advantages of DemoTuner in both performance improvement and online tuning cost reduction over three representative baselines including DB-BERT, GPTuner and CDBTune. Additionally, DemoTuner also exhibits superior adaptability to application scenarios with unknown workloads.
- Abstract(参考訳): MySQLやPostgreSQLといった最新のDBMSのパフォーマンスは、パフォーマンスクリティカルなノブの設定に大きく依存している。
これらのノブを手動でチューニングすることは、構成空間の複雑で高次元の性質のため、面倒で非効率である。
自動チューニング手法のうち、強化学習(RL)に基づく手法は、最近、いくつかの異なる視点からDBMSノブチューニングプロセスの改善を試みている。
しかし、オフライントレーニング中に、収束速度の遅い課題に直面している。
本稿では,DBMSマニュアルやWebフォーラムなどのテキスト文書に含まれる貴重なチューニングヒントを活用すれば,RLベースの手法のオフライントレーニングを改善することに集中する。
そこで本研究では,新しいLLM支援型実演強化学習手法により,DemoTunerというDBMSノブの効率的なチューニングフレームワークを提案する。
具体的には、文書からのチューニングヒントを包括的かつ正確にマイニングするために、LLMを用いて条件対応チューニングヒント抽出タスクを実行するための構造化された思考プロンプトを設計する。
マイニングされたヒントをRLエージェントトレーニングに効果的に組み込むため,DemoTuner でヒント認識型実演強化学習アルゴリズム HA-DDPGfD を提案する。
私たちが知る限り、DemoTunerはDBMSノブチューニングのためのデモ強化学習アルゴリズムを導入する最初の作業です。
さまざまなワークロードでMySQLとPostgreSQLで実施された実験的評価は、DB-BERT、GPTuner、CDBTuneを含む3つの代表的なベースラインに対するパフォーマンス改善とオンラインチューニングコストの削減において、DemoTunerの重大なメリットを示している。
さらに、DemoTunerは未知のワークロードでアプリケーションシナリオに優れた適応性を示す。
関連論文リスト
- L2T-Tune:LLM-Guided Hybrid Database Tuning with LHS and TD3 [18.974774698881085]
我々は,新しいハイブリッドデータベースチューニングフレームワークであるL2T-Tuneを提案する。
ステージ1は温かいスタートを実行し、knob空間全体で均一なサンプルを同時に生成する。
ステージ2は大きな言語モデルを利用して、マニュアルやコミュニティドキュメントからのヒントをマイニングし、優先順位付けします。
ステージ3では、ウォームスタートサンプルプールを使用して、ノブと状態特徴の次元を減らし、Twin Delayed Deep Deterministic Policy Gradientアルゴリズムで設定を微調整する。
論文 参考訳(メタデータ) (2025-11-03T14:04:22Z) - Fine-Tuning on Diverse Reasoning Chains Drives Within-Inference CoT Refinement in LLMs [63.36637269634553]
本稿では,LLMを微調整し,一つの推論ステップで思考の逆連鎖(DCoT)を生成する手法を提案する。
DCoTの微調整により,モデルファミリおよびスケール間のCoTベースライン上での性能が向上することを示す。
我々の研究は、定量的解析と手動評価の両方で、観測された利益は、最初の推論連鎖を洗練させるモデルの能力に由来することを明らかにしているため、重要である。
論文 参考訳(メタデータ) (2024-07-03T15:01:18Z) - E2ETune: End-to-End Knob Tuning via Fine-tuned Generative Language Model [22.661022020554622]
E2ETuneは、細調整された生成言語モデルを利用したエンドツーエンドのノブチューナーである。
本稿では,大量のトレーニングデータを効率的に生成する新しいデータ生成フレームワークを提案する。
そして、これらのデータを用いて生成言語モデルを微調整し、エンドツーエンドのノブチューナーを生成する。
論文 参考訳(メタデータ) (2024-04-17T17:28:05Z) - Step-On-Feet Tuning: Scaling Self-Alignment of LLMs via Bootstrapping [53.454408491386886]
自己アライメントのブートストラップは、シングルラウンドアプローチをはるかに上回る。
モデルが継続的に強化した複数ショット機能を活用してゼロまたはワンショットのパフォーマンスを向上するステップ・オン・フィート・チューニング(SOFT)を提案する。
簡単な学習法に基づいて、自己アライメントの性能をさらに向上させるSOFT+を提案する。
論文 参考訳(メタデータ) (2024-02-12T12:30:42Z) - Res-Tuning: A Flexible and Efficient Tuning Paradigm via Unbinding Tuner
from Backbone [60.4611286093497]
Res-Tuningは、バックボーンからチューナーをアンバインドする新しいチューニングパラダイムである。
一般的なチューニング手法は、結合のない定式化の下で同等の手法を持つことを示す。
本稿では,メモリ効率のよいRes-Tuningの変種を提案する。
論文 参考訳(メタデータ) (2023-10-30T17:58:19Z) - Deep learning based Auto Tuning for Database Management System [0.12891210250935148]
本研究では,Ottertuneをベースとした自動手法を拡張し,従来のセッションから収集したデータを再利用し,教師付きおよび教師なしの機械学習手法を用いて新たなデプロイメントをチューニングし,遅延予測を改善する。
我々は、GMMクラスタリングを使用してメトリクスをプルークし、RandomForestのようなアンサンブルモデルとニューラルネットワークのような非線形モデルを組み合わせて予測モデルを作成します。
論文 参考訳(メタデータ) (2023-04-25T11:52:52Z) - Prompt Tuning for Generative Multimodal Pretrained Models [75.44457974275154]
我々は、理解タスクと生成タスクの両方に適応した統合シーケンス・ツー・シーケンス事前学習モデルに、即時チューニングを実装した。
実験結果から,軽量なプロンプトチューニングはファインタニングで同等の性能を発揮することが示された。
微調整モデルと比較して、プロンプト調整モデルでは敵攻撃に対する堅牢性が改善されている。
論文 参考訳(メタデータ) (2022-08-04T08:56:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。