論文の概要: Towards a General Framework for ML-based Self-tuning Databases
- arxiv url: http://arxiv.org/abs/2011.07921v2
- Date: Tue, 27 Apr 2021 15:57:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-25 01:09:20.506977
- Title: Towards a General Framework for ML-based Self-tuning Databases
- Title(参考訳): mlに基づく自己チューニングデータベースの汎用フレームワークに向けて
- Authors: Thomas Schmied, Diego Didona, Andreas D\"oring, Thomas Parnell, and
Nikolas Ioannou
- Abstract要約: 最先端のアプローチとしては、ベイズ最適化(BO)と強化学習(RL)がある。
この文脈でまだ研究されていないデータベースにこれらのメソッドを適用する際の私たちの経験について説明する。
BO法とRL法はFoundationDBのスループットを最大38%向上させることができるが,ランダム検索は競争の激しいベースラインである。
- 参考スコア(独自算出の注目度): 3.3437858804655383
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning (ML) methods have recently emerged as an effective way to
perform automated parameter tuning of databases. State-of-the-art approaches
include Bayesian optimization (BO) and reinforcement learning (RL). In this
work, we describe our experience when applying these methods to a database not
yet studied in this context: FoundationDB. Firstly, we describe the challenges
we faced, such as unknown valid ranges of configuration parameters and
combinations of parameter values that result in invalid runs, and how we
mitigated them. While these issues are typically overlooked, we argue that they
are a crucial barrier to the adoption of ML self-tuning techniques in
databases, and thus deserve more attention from the research community.
Secondly, we present experimental results obtained when tuning FoundationDB
using ML methods. Unlike prior work in this domain, we also compare with the
simplest of baselines: random search. Our results show that, while BO and RL
methods can improve the throughput of FoundationDB by up to 38%, random search
is a highly competitive baseline, finding a configuration that is only 4% worse
than the, vastly more complex, ML methods. We conclude that future work in this
area may want to focus more on randomized, model-free optimization algorithms.
- Abstract(参考訳): 機械学習(ML)メソッドは、データベースの自動パラメータチューニングを実行する効果的な方法として最近登場した。
最先端のアプローチには、ベイズ最適化(BO)と強化学習(RL)がある。
本稿では、この文脈でまだ研究されていないデータベースにこれらのメソッドを適用する際の私たちの経験について述べる。
まず、未知の設定パラメータの有効範囲や、無効な実行の結果のパラメータ値の組み合わせ、そしてそれらを緩和する方法など、私たちが直面した課題について説明する。
これらの問題は一般的に見過ごされがちですが、データベースにおけるMLの自己チューニング技術の採用にとって、これらは決定的な障壁である、と私たちは主張しています。
次に,ML手法を用いたFoundationDBのチューニング実験を行った。
この領域における以前の作業と異なり、最も単純なベースラインであるランダム検索と比較する。
以上の結果から,BO法とRL法はFoundationDBのスループットを最大38%向上させることができるが,ランダム検索は競争の激しいベースラインであり,より複雑で複雑なML法よりもわずか4%低い構成であることがわかった。
この領域における今後の研究は、ランダム化されたモデルなし最適化アルゴリズムにもっと焦点を当てたいと結論付けている。
関連論文リスト
- Optimal Data Generation in Multi-Dimensional Parameter Spaces, using
Bayesian Optimization [0.0]
本稿では,機械学習モデルを学習するための最小限の高情報データベースを構築するための新しい手法を提案する。
ガウス過程回帰(GPR)を用いた出力パラメータと入力パラメータの関係を模倣する。
GPRにより予測される標準偏差を考慮し,ベイジアン最適化を用いてデータ点を選択し,MLモデルの学習に有効なデータベースを得る。
論文 参考訳(メタデータ) (2023-12-04T16:36:29Z) - Direct Diffusion Bridge using Data Consistency for Inverse Problems [65.04689839117692]
拡散モデルに基づく逆問題解法は優れた性能を示したが、速度は制限されている。
いくつかの最近の研究は、拡散プロセスを構築し、クリーンで破損したものを直接ブリッジすることでこの問題を緩和しようと試みている。
微調整を必要とせずにデータの一貫性を強制する改良された推論手順を提案する。
論文 参考訳(メタデータ) (2023-05-31T12:51:10Z) - Leaving the Nest: Going Beyond Local Loss Functions for
Predict-Then-Optimize [57.22851616806617]
本手法は,文献から得られた4つの領域において,最先端の成果が得られることを示す。
提案手法は, 局所性仮定が破られた場合, 既存手法よりも200%近く性能が向上する。
論文 参考訳(メタデータ) (2023-05-26T11:17:45Z) - Universal Domain Adaptation from Foundation Models: A Baseline Study [58.51162198585434]
基礎モデルを用いた最先端UniDA手法の実証的研究を行った。
CLIPモデルからターゲット知識を抽出するためのパラメータフリーな手法であるtextitCLIP 蒸留を導入する。
単純な手法ではあるが、ほとんどのベンチマークタスクでは従来の手法よりも優れている。
論文 参考訳(メタデータ) (2023-05-18T16:28:29Z) - Ahead-of-Time P-Tuning [0.2538209532048867]
Ahead-of-Time (AoT) P-Tuningは、事前学習言語モデル(LM)のためのパラメータ効率の良い微調整法である
我々は,RoBERTaモデルとDeBERTaモデルを用いて,GLUEおよびSuperGLUEベンチマークデータセットのAoT P-Tuningを評価する。
提案手法は, 1 つのバックボーン LM を用いてマルチタスクの推論を可能にする。
論文 参考訳(メタデータ) (2023-05-18T09:24:53Z) - Improving Few-Shot Generalization by Exploring and Exploiting Auxiliary
Data [100.33096338195723]
補助データを用いたFew-shot Learning(FLAD)に焦点を当てる。
FLADは、一般化を改善するために、数ショットの学習中に補助データへのアクセスを前提としている。
提案するアルゴリズムは EXP3-FLAD と UCB1-FLAD の2つである。
論文 参考訳(メタデータ) (2023-02-01T18:59:36Z) - Bi-level Alignment for Cross-Domain Crowd Counting [113.78303285148041]
現在の手法は、補助的なタスクを訓練したり、高価な粗大な見積もりを適用したりするための外部データに依存している。
そこで我々は, 簡易かつ効率的に適用可能な, 逆学習に基づく新しい手法を開発した。
実世界の5つのクラウドカウントベンチマークに対するアプローチを評価し、既存のアプローチを大きなマージンで上回ります。
論文 参考訳(メタデータ) (2022-05-12T02:23:25Z) - Probabilistic Case-based Reasoning for Open-World Knowledge Graph
Completion [59.549664231655726]
ケースベース推論(CBR)システムは,与えられた問題に類似した事例を検索することで,新たな問題を解決する。
本稿では,知識ベース(KB)の推論において,そのようなシステムが実現可能であることを示す。
提案手法は,KB内の類似エンティティからの推論パスを収集することにより,エンティティの属性を予測する。
論文 参考訳(メタデータ) (2020-10-07T17:48:12Z) - Monotonic Cardinality Estimation of Similarity Selection: A Deep
Learning Approach [22.958342743597044]
類似度選択の基数推定にディープラーニングを活用する可能性について検討する。
本稿では,任意のデータ型や距離関数に適用可能な,新規で汎用的な手法を提案する。
論文 参考訳(メタデータ) (2020-02-15T20:22:51Z) - Bayesian Meta-Prior Learning Using Empirical Bayes [3.666114237131823]
本稿では,情報的事前の欠如とパラメータ学習率の制御能力に対処する階層的経験ベイズ手法を提案する。
本手法は,データ自体から経験的メタプライヤを学習し,その学習率を1次および2次の特徴の分離に利用する。
スパースデータの最適化は、しばしば課題となるため、私たちの発見は有望です。
論文 参考訳(メタデータ) (2020-02-04T05:08:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。