論文の概要: DOT: Dynamic Knob Selection and Online Sampling for Automated Database Tuning
- arxiv url: http://arxiv.org/abs/2603.15540v1
- Date: Mon, 16 Mar 2026 17:05:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 18:28:58.618606
- Title: DOT: Dynamic Knob Selection and Online Sampling for Automated Database Tuning
- Title(参考訳): DOT: データベース自動チューニングのための動的ノブ選択とオンラインサンプリング
- Authors: Yifan Wang, Debabrota Basu, Pierre Bourhis, Romain Rouvoy, Patrick Royer,
- Abstract要約: 動的ノブ選択とオンラインサンプリングチューニングアルゴリズムであるDOTを提案する。
DOTは低重要チューニングパラメータと、探索とエクスプロイトのバランスをとるためのLikelihood Ratio Test (LRT)戦略を駆使している。
実験の結果、DOTは最先端チューナーと比較して、マッチングやパフォーマンスの向上を実現していることがわかった。
- 参考スコア(独自算出の注目度): 17.110740232814674
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Database Management Systems (DBMS) are crucial for efficient data management and access control, but their administration remains challenging for Database Administrators (DBAs). Tuning, in particular, is known to be difficult. Modern systems have many tuning parameters, but only a subset significantly impacts performance. Focusing on these influential parameters reduces the search space and optimizes performance. Current methods rely on costly warm-up phases and human expertise to identify important tuning parameters. In this paper, we present DOT, a dynamic knob selection and online sampling DBMS tuning algorithm. DOT uses Recursive Feature Elimination with Cross-Validation (RFECV) to prune low-importance tuning parameters and a Likelihood Ratio Test (LRT) strategy to balance exploration and exploitation. For parameter search, DOT uses a Bayesian Optimization (BO) algorithm to optimize configurations on-the-fly, eliminating the need for warm-up phases or prior knowledge (although existing knowledge can be incorporated). Experiments show that DOT achieves matching or outperforming performance compared to state-of-the-art tuners while substantially reducing tuning overhead.
- Abstract(参考訳): データベース管理システム(DBMS)は、効率的なデータ管理とアクセス制御のために重要であるが、データベース管理者(DBAs)にとってその管理は依然として困難である。
特にチューニングは難しいことが知られている。
現代のシステムには多くのチューニングパラメータがあるが、性能に大きな影響を与えるのはサブセットのみである。
これらの影響のあるパラメータに注目すると、検索スペースが減少し、性能が最適化される。
現在の手法は、重要なチューニングパラメータを特定するために、コストのかかるウォームアップフェーズと人間の専門知識に依存している。
本稿では,動的ノブ選択とオンラインサンプリングDBMSチューニングアルゴリズムであるDOTを提案する。
DOTは、RFECV(Recursive Feature Elimination with Cross-Validation)を使用して、低重要チューニングパラメータと、探索と利用のバランスをとるためのLikelihood Ratio Test(LRT)戦略を創出する。
パラメータ探索において、DOTはベイズ最適化(BO)アルゴリズムを用いて設定をオンザフライで最適化し、ウォームアップフェーズや事前知識を必要としない(ただし既存の知識は組み込むことができる)。
実験の結果,DOTはチューニングオーバーヘッドを大幅に低減しつつ,最先端チューナーと比較して,マッチングやパフォーマンスの向上を実現していることがわかった。
関連論文リスト
- Relation-Aware Bayesian Optimization of DBMS Configurations Guided by Affinity Scores [2.474203056060563]
データベース管理システム(DBMS)は,大規模および異種データの管理に基本的であり,その性能は構成パラメータの影響を強く受けている。
近年の研究では、機械学習を用いた自動構成最適化に焦点が当てられているが、既存のアプローチにはいくつかの重要な制限がある。
パラメータ依存をグラフとして表現する新しいフレームワークであるRelTuneを提案し,パフォーマンス関連セマンティクスを符号化したGNNベースの潜伏埋め込みを学習する。
論文 参考訳(メタデータ) (2025-10-31T03:46:42Z) - BIPEFT: Budget-Guided Iterative Search for Parameter Efficient Fine-Tuning of Large Pretrained Language Models [63.52035708182815]
自動PEFT(BIPEFT)のための新しいBudget-Guided Iterative Search戦略を提案する。
BIPEFTはバイナリモジュールとランク次元検索空間をアンタングルするために,新たな反復探索方式を採用している。
公開ベンチマークの大規模な実験は、パラメータ予算の低い下流タスクにおいて、BIPEFTの優れた性能を示す。
論文 参考訳(メタデータ) (2024-10-04T18:50:46Z) - E2ETune: End-to-End Knob Tuning via Fine-tuned Generative Language Model [22.661022020554622]
E2ETuneは、細調整された生成言語モデルを利用したエンドツーエンドのノブチューナーである。
本稿では,大量のトレーニングデータを効率的に生成する新しいデータ生成フレームワークを提案する。
そして、これらのデータを用いて生成言語モデルを微調整し、エンドツーエンドのノブチューナーを生成する。
論文 参考訳(メタデータ) (2024-04-17T17:28:05Z) - Efficient Architecture Search via Bi-level Data Pruning [70.29970746807882]
この研究は、DARTSの双方向最適化におけるデータセット特性の重要な役割を探求する先駆者となった。
我々は、スーパーネット予測力学を計量として活用する新しいプログレッシブデータプルーニング戦略を導入する。
NAS-Bench-201サーチスペース、DARTSサーチスペース、MobileNetのようなサーチスペースに関する総合的な評価は、BDPがサーチコストを50%以上削減することを検証する。
論文 参考訳(メタデータ) (2023-12-21T02:48:44Z) - Sensitivity-Aware Visual Parameter-Efficient Fine-Tuning [91.5113227694443]
私たちは新しいビジュアルを提案します。
Sensuous-Aware Fine-Tuning (SPT) スキーム。
SPTはタスク固有の重要な位置にトレーニング可能なパラメータを割り当てる。
ダウンストリーム認識タスクの幅広い実験により,SPTは既存のPEFT法と相補的であることが示された。
論文 参考訳(メタデータ) (2023-03-15T12:34:24Z) - AUTOMATA: Gradient Based Data Subset Selection for Compute-Efficient
Hyper-parameter Tuning [72.54359545547904]
ハイパーパラメータチューニングのための勾配に基づくサブセット選択フレームワークを提案する。
ハイパーパラメータチューニングに勾配ベースのデータサブセットを用いることで、3$times$-30$times$のターンアラウンド時間とスピードアップが大幅に向上することを示す。
論文 参考訳(メタデータ) (2022-03-15T19:25:01Z) - Amortized Auto-Tuning: Cost-Efficient Transfer Optimization for
Hyperparameter Recommendation [83.85021205445662]
本稿では,機械学習モデルのチューニングを高速化する自動チューニング(AT2)を提案する。
マルチタスクマルチ忠実ベイズ最適化フレームワークの徹底的な解析を行い、最適なインスタンス化-アモータイズ自動チューニング(AT2)を実現する。
論文 参考訳(メタデータ) (2021-06-17T00:01:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。