論文の概要: Centrum: Model-based Database Auto-tuning with Minimal Distributional Assumptions
- arxiv url: http://arxiv.org/abs/2510.22734v1
- Date: Sun, 26 Oct 2025 16:08:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.346369
- Title: Centrum: Model-based Database Auto-tuning with Minimal Distributional Assumptions
- Title(参考訳): Centrum: 最小分散推定を用いたモデルベースデータベース自動チューニング
- Authors: Yuanhao Lai, Pengfei Zheng, Chenpeng Ji, Yan Li, Songhan Zhang, Rutao Zhang, Zhengang Wang, Yunfei Du,
- Abstract要約: GP-BOの基本的な仮定は、モデリングや性能最適化において広く違反している。
既存のツリーアンサンブルBOはオートチューニングのさらなる進歩を制限している。
本稿では,新しいモデルベースオートチューニングシステムCentrumを提案する。
- 参考スコア(独自算出の注目度): 5.531580985762232
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Gaussian-Process-based Bayesian optimization (GP-BO), is a prevailing model-based framework for DBMS auto-tuning. However, recent work shows GP-BO-based DBMS auto-tuners significantly outperformed auto-tuners based on SMAC, which features random forest surrogate models; such results motivate us to rethink and investigate the limitations of GP-BO in auto-tuner design. We find the fundamental assumptions of GP-BO are widely violated when modeling and optimizing DBMS performance, while tree-ensemble-BOs (e.g., SMAC) can avoid the assumption pitfalls and deliver improved tuning efficiency and effectiveness. Moreover, we argue that existing tree-ensemble-BOs restrict further advancement in DBMS auto-tuning. First, existing tree-ensemble-BOs can only achieve distribution-free point estimates, but still impose unrealistic distributional assumptions on uncertainty estimates, compromising surrogate modeling and distort the acquisition function. Second, recent advances in gradient boosting, which can further enhance surrogate modeling against vanilla GP and random forest counterparts, have rarely been applied in optimizing DBMS auto-tuners. To address these issues, we propose a novel model-based DBMS auto-tuner, Centrum. Centrum improves distribution-free point and interval estimation in surrogate modeling with a two-phase learning procedure of stochastic gradient boosting ensembles. Moreover, Centrum adopts a generalized SGBE-estimated locally-adaptive conformal prediction to facilitate a distribution-free uncertainty estimation and acquisition function. To our knowledge, Centrum is the first auto-tuner to realize distribution-freeness, enhancing BO's practicality in DBMS auto-tuning, and the first to seamlessly fuse gradient boosting ensembles and conformal inference in BO. Extensive physical and simulation experiments on two DBMSs and three workloads show Centrum outperforms 21 SOTA methods.
- Abstract(参考訳): Gaussian-Process-based Bayesian Optimization (GP-BO)はDBMS自動チューニングのための一般的なモデルベースフレームワークである。
しかし、近年の研究では、GP-BOに基づくDBMSオートチューナーが、ランダムな森林代理モデルを持つSMACに基づくオートチューナーよりも優れており、オートチューナー設計におけるGP-BOの限界を再考し検討する動機となっている。
GP-BOの基本的な仮定はDBMSの性能をモデル化・最適化する際に広く破られるが、ツリーアンサンブルBO(例:SMAC)は仮定の落とし穴を回避し、チューニング効率と効率を向上させることができる。
さらに,既存のツリーアンサンブルBOはDBMS自動チューニングのさらなる進歩を制限していると論じる。
まず、既存のツリーアンサンブルBOは、分布のない点推定しか達成できないが、不確実性の推定に対して非現実的な分布仮定を課し、代理モデリングを妥協し、取得関数を歪ませる。
第2に、バニラGPや無作為森林に対するサロゲートモデリングをさらに強化するグラデーション強化の最近の進歩は、DBMSオートチューナーの最適化にはほとんど適用されていない。
これらの課題に対処するため,新しいモデルベースDBMSオートチューニングシステムであるCentrumを提案する。
Centrumは確率勾配促進アンサンブルの2相学習法を用いて代理モデルにおける分布自由点と区間推定を改善する。
さらに、Centrumは、分布のない不確実性推定と取得関数を容易にするために、一般化されたSGBE推定局所適応型共形予測を採用する。
我々の知る限り、Centrumは分布自由性を初めて実現し、DBMSオートチューニングにおけるBOの実用性を高め、BOにおけるアンサンブルと共形推論をシームレスに融合する最初の自動チューニングである。
2つのDBMSと3つのワークロードに関する大規模な物理およびシミュレーション実験は、Centrumが21SOTA法より優れていることを示している。
関連論文リスト
- KAT-V1: Kwai-AutoThink Technical Report [50.84483585850113]
Kwaipilot-AutoThink (KAT) はオープンソースの40B大言語モデルであり、推論集約タスクにおける過大な問題に対処するために開発された。
KATはタスクの複雑さに基づいて推論モードと非推論モードを動的に切り替える。
また、GRPOフレームワークに中間管理を組み込んだ強化学習アルゴリズムであるStep-SRPOを提案する。
論文 参考訳(メタデータ) (2025-07-11T04:07:10Z) - Improving Batch Normalization with TTA for Robust Object Detection in Self-Driving [26.038699227233227]
本稿では、自律運転における物体検出のためのTTAによるバッチ正規化を改善するための2つの新しいロバスト手法を提案する。
本稿では,一般探索エントロピー最小化法(GSEM)に基づく学習可能なBN層を提案する。
本稿では,モデルが最適解を反復的に探索することを奨励する,セマンティック一貫性に基づく2段階適応戦略を提案する。
論文 参考訳(メタデータ) (2024-11-28T01:59:34Z) - Robust Bayesian Optimization via Localized Online Conformal Prediction [37.549297668783254]
局所化オンライン共形予測に基づくベイズ最適化(LOCBO)を導入する。
LOCBOは局所オンライン共形予測(CP)によりGPモデルを校正する
観測対象関数を保留するLOCBOのイテレートについて理論的性能保証を行う。
論文 参考訳(メタデータ) (2024-11-26T12:45:54Z) - Towards Stable Machine Learning Model Retraining via Slowly Varying Sequences [6.067007470552307]
そこで本研究では,リトレーニングを繰り返して安定なモデル列を見つけるためのモデルに依存しないフレームワークを提案する。
最適モデルの復元が保証される混合整数最適化の定式化を開発する。
平均的に、予測力の2%の低下は、安定性の30%の改善につながることが判明した。
論文 参考訳(メタデータ) (2024-03-28T22:45:38Z) - AutoFT: Learning an Objective for Robust Fine-Tuning [60.641186718253735]
ファンデーションモデルは、微調整によって下流タスクに適応できるリッチな表現をエンコードする。
手作り正則化技術を用いた頑健な微調整への最近のアプローチ
我々は、堅牢な微調整のためのデータ駆動型アプローチであるAutoFTを提案する。
論文 参考訳(メタデータ) (2024-01-18T18:58:49Z) - Model-based Causal Bayesian Optimization [78.120734120667]
モデルに基づく因果ベイズ最適化(MCBO)を提案する。
MCBOは介入と逆のペアをモデリングするのではなく、完全なシステムモデルを学ぶ。
標準的なベイズ最適化とは異なり、我々の取得関数は閉形式では評価できない。
論文 参考訳(メタデータ) (2022-11-18T14:28:21Z) - DSEE: Dually Sparsity-embedded Efficient Tuning of Pre-trained Language
Models [152.29364079385635]
事前訓練されたモデルが大きくなればなるほど、微調整のプロセスは時間がかかり、計算コストがかかる可能性がある。
本稿では,重み更新と最終モデルの重み付けに先立って,疎度を活用することで,資源・パラメータ効率の微調整を行うフレームワークを提案する。
提案するフレームワークは,Dually Sparsity-Embeded Efficient Tuning (DSEE)と呼ばれ,パラメータ効率のよい微調整とリソース効率の推論という2つの重要な目標を達成することを目的としている。
論文 参考訳(メタデータ) (2021-10-30T03:29:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。