論文の概要: Towards a General Framework for ML-based Self-tuning Databases
- arxiv url: http://arxiv.org/abs/2011.07921v2
- Date: Tue, 27 Apr 2021 15:57:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-25 01:09:20.506977
- Title: Towards a General Framework for ML-based Self-tuning Databases
- Title(参考訳): mlに基づく自己チューニングデータベースの汎用フレームワークに向けて
- Authors: Thomas Schmied, Diego Didona, Andreas D\"oring, Thomas Parnell, and
Nikolas Ioannou
- Abstract要約: 最先端のアプローチとしては、ベイズ最適化(BO)と強化学習(RL)がある。
この文脈でまだ研究されていないデータベースにこれらのメソッドを適用する際の私たちの経験について説明する。
BO法とRL法はFoundationDBのスループットを最大38%向上させることができるが,ランダム検索は競争の激しいベースラインである。
- 参考スコア(独自算出の注目度): 3.3437858804655383
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning (ML) methods have recently emerged as an effective way to
perform automated parameter tuning of databases. State-of-the-art approaches
include Bayesian optimization (BO) and reinforcement learning (RL). In this
work, we describe our experience when applying these methods to a database not
yet studied in this context: FoundationDB. Firstly, we describe the challenges
we faced, such as unknown valid ranges of configuration parameters and
combinations of parameter values that result in invalid runs, and how we
mitigated them. While these issues are typically overlooked, we argue that they
are a crucial barrier to the adoption of ML self-tuning techniques in
databases, and thus deserve more attention from the research community.
Secondly, we present experimental results obtained when tuning FoundationDB
using ML methods. Unlike prior work in this domain, we also compare with the
simplest of baselines: random search. Our results show that, while BO and RL
methods can improve the throughput of FoundationDB by up to 38%, random search
is a highly competitive baseline, finding a configuration that is only 4% worse
than the, vastly more complex, ML methods. We conclude that future work in this
area may want to focus more on randomized, model-free optimization algorithms.
- Abstract(参考訳): 機械学習(ML)メソッドは、データベースの自動パラメータチューニングを実行する効果的な方法として最近登場した。
最先端のアプローチには、ベイズ最適化(BO)と強化学習(RL)がある。
本稿では、この文脈でまだ研究されていないデータベースにこれらのメソッドを適用する際の私たちの経験について述べる。
まず、未知の設定パラメータの有効範囲や、無効な実行の結果のパラメータ値の組み合わせ、そしてそれらを緩和する方法など、私たちが直面した課題について説明する。
これらの問題は一般的に見過ごされがちですが、データベースにおけるMLの自己チューニング技術の採用にとって、これらは決定的な障壁である、と私たちは主張しています。
次に,ML手法を用いたFoundationDBのチューニング実験を行った。
この領域における以前の作業と異なり、最も単純なベースラインであるランダム検索と比較する。
以上の結果から,BO法とRL法はFoundationDBのスループットを最大38%向上させることができるが,ランダム検索は競争の激しいベースラインであり,より複雑で複雑なML法よりもわずか4%低い構成であることがわかった。
この領域における今後の研究は、ランダム化されたモデルなし最適化アルゴリズムにもっと焦点を当てたいと結論付けている。
関連論文リスト
- Is Large Language Model Good at Database Knob Tuning? A Comprehensive Experimental Evaluation [28.753219581544617]
本研究は,経験豊富なDBAとして大規模言語モデル(LLM)を,慎重に設計されたプロンプトを用いたノブチューニングタスクに活用する。
我々は,LLM方式のアプローチと従来の手法との比較実験を行った。
以上の結果から, LLMは従来の手法に適合するだけでなく, 解釈可能性も顕著であることが明らかとなった。
論文 参考訳(メタデータ) (2024-08-05T03:26:01Z) - Retrieval with Learned Similarities [2.729516456192901]
最先端の検索アルゴリズムは、学習された類似点に移行した。
そこで本研究では,Mixture-of-Logits (MoL) を実証的に実現し,多様な検索シナリオにおいて優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2024-07-22T08:19:34Z) - Training Task Experts through Retrieval Based Distillation [55.46054242512261]
ReBase(Retrieval Based Distillation)は、まずリッチなオンラインソースからデータを抽出し、それをドメイン固有のデータに変換する手法である。
SQADは最大7.8%,MNLIは1.37%,BigBench-Hardは1.94%向上した。
論文 参考訳(メタデータ) (2024-07-07T18:27:59Z) - MindStar: Enhancing Math Reasoning in Pre-trained LLMs at Inference Time [51.5039731721706]
MindStarは、大言語モデルの純粋に推論に基づく探索手法である。
推論タスクを探索問題として定式化し、最適な推論経路を特定するための2つの探索アイデアを提案する。
Llama-2-13BやMistral-7Bのようなオープンソースモデルの推論能力を大幅に向上させ、GPT-3.5やGrok-1に匹敵する性能を実現している。
論文 参考訳(メタデータ) (2024-05-25T15:07:33Z) - Optimal Data Generation in Multi-Dimensional Parameter Spaces, using
Bayesian Optimization [0.0]
本稿では,機械学習モデルを学習するための最小限の高情報データベースを構築するための新しい手法を提案する。
ガウス過程回帰(GPR)を用いた出力パラメータと入力パラメータの関係を模倣する。
GPRにより予測される標準偏差を考慮し,ベイジアン最適化を用いてデータ点を選択し,MLモデルの学習に有効なデータベースを得る。
論文 参考訳(メタデータ) (2023-12-04T16:36:29Z) - Universal Domain Adaptation from Foundation Models: A Baseline Study [58.51162198585434]
基礎モデルを用いた最先端UniDA手法の実証的研究を行った。
CLIPモデルからターゲット知識を抽出するためのパラメータフリーな手法であるtextitCLIP 蒸留を導入する。
単純な手法ではあるが、ほとんどのベンチマークタスクでは従来の手法よりも優れている。
論文 参考訳(メタデータ) (2023-05-18T16:28:29Z) - Improving Few-Shot Generalization by Exploring and Exploiting Auxiliary
Data [100.33096338195723]
補助データを用いたFew-shot Learning(FLAD)に焦点を当てる。
FLADは、一般化を改善するために、数ショットの学習中に補助データへのアクセスを前提としている。
提案するアルゴリズムは EXP3-FLAD と UCB1-FLAD の2つである。
論文 参考訳(メタデータ) (2023-02-01T18:59:36Z) - Bi-level Alignment for Cross-Domain Crowd Counting [113.78303285148041]
現在の手法は、補助的なタスクを訓練したり、高価な粗大な見積もりを適用したりするための外部データに依存している。
そこで我々は, 簡易かつ効率的に適用可能な, 逆学習に基づく新しい手法を開発した。
実世界の5つのクラウドカウントベンチマークに対するアプローチを評価し、既存のアプローチを大きなマージンで上回ります。
論文 参考訳(メタデータ) (2022-05-12T02:23:25Z) - Probabilistic Case-based Reasoning for Open-World Knowledge Graph
Completion [59.549664231655726]
ケースベース推論(CBR)システムは,与えられた問題に類似した事例を検索することで,新たな問題を解決する。
本稿では,知識ベース(KB)の推論において,そのようなシステムが実現可能であることを示す。
提案手法は,KB内の類似エンティティからの推論パスを収集することにより,エンティティの属性を予測する。
論文 参考訳(メタデータ) (2020-10-07T17:48:12Z) - Bayesian Meta-Prior Learning Using Empirical Bayes [3.666114237131823]
本稿では,情報的事前の欠如とパラメータ学習率の制御能力に対処する階層的経験ベイズ手法を提案する。
本手法は,データ自体から経験的メタプライヤを学習し,その学習率を1次および2次の特徴の分離に利用する。
スパースデータの最適化は、しばしば課題となるため、私たちの発見は有望です。
論文 参考訳(メタデータ) (2020-02-04T05:08:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。